JP7003253B2 - エンコーダおよび/またはデコーダの帯域幅の制御 - Google Patents

エンコーダおよび/またはデコーダの帯域幅の制御 Download PDF

Info

Publication number
JP7003253B2
JP7003253B2 JP2020524579A JP2020524579A JP7003253B2 JP 7003253 B2 JP7003253 B2 JP 7003253B2 JP 2020524579 A JP2020524579 A JP 2020524579A JP 2020524579 A JP2020524579 A JP 2020524579A JP 7003253 B2 JP7003253 B2 JP 7003253B2
Authority
JP
Japan
Prior art keywords
bandwidth
encoder
decoder
frequency domain
tools
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020524579A
Other languages
English (en)
Other versions
JP2021502591A (ja
Inventor
シュネル・マーカス
ラヴェッリ・エマニュエル
ベンドルフ・コンラッド
アルベルト・トビアス
ルツキー・マンフレッド
トマシェク・アドリアン
Original Assignee
フラウンホーファー-ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フラウンホーファー-ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン filed Critical フラウンホーファー-ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン
Publication of JP2021502591A publication Critical patent/JP2021502591A/ja
Application granted granted Critical
Publication of JP7003253B2 publication Critical patent/JP7003253B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0204Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using subband decomposition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/032Quantisation or dequantisation of spectral components
    • G10L19/035Scalar quantisation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/032Quantisation or dequantisation of spectral components
    • G10L19/038Vector quantisation, e.g. TwinVQ audio
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/26Pre-filtering or post-filtering
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • H03M7/3059Digital compression and data reduction techniques where the original information is represented by a subset or similar information, e.g. lossy compression
    • H03M7/3062Compressive sampling or sensing
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • H03M7/3066Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction by means of a mask or a bit-map
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • H03M7/60General implementation details not specific to a particular type of compression
    • H03M7/6005Decoder aspects
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • H03M7/60General implementation details not specific to a particular type of compression
    • H03M7/6011Encoder aspects
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/03Spectral prediction for preventing pre-echo; Temporary noise shaping [TNS], e.g. in MPEG2 or MPEG4
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/22Mode decision, i.e. based on audio signal content versus external parameters

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

1.先行技術
本実施例は、特にオーディオ信号などの情報信号のためのエンコーダおよびデコーダおよびこれらの装置の方法に関する。
一般的なオーディオコーデックは、音楽および音声の信号を非常に高品質で送信する必要がある。このようなオーディオコーデックは、例えばブルートゥース(登録商標)で使用され、オーディオ信号は携帯電話からヘッドセットまたはヘッドホンに、あるいはその逆に送信される。
スペクトルの一部をゼロに量子化すると、多くの場合、知覚的な劣化が生じる。したがって、周波数領域(FD)で動作するノイズフィラーツールを使用して、ゼロ量子化スペクトルラインをノイズに置き換えることができる。
一時的ノイズシェーピング(TNS)は、周波数領域(FD)で開ループ線形予測を使用する。この周波数での予測符号化/復号プロセスは、量子化ノイズの時間構造を時間信号の時間構造に効果的に適合させ、それによって信号を効率的に使用してノイズの影響をマスクする。MPEG-2 Advanced Audio Coder(AAC)規格では、TNSは現在、特定の周波数帯域に1つのフィルタを定義し、隣接する帯域の信号構造が前の帯域の信号構造と異なる場合は隣接する周波数帯域に対して別のフィルタに切り替えることで実装されている。
特に音声信号の場合、オーディオコンテンツは帯域制限される可能性がある。つまり、オーディオ帯域幅には4KHz(狭帯域、NB)、8KHz(広帯域、WB)、または16KHz(超広帯域、SWB)のみが含まれる。オーディオコーデックは、アクティブなオーディオ帯域幅を検出し、それに応じてコーディングツールを制御する必要がある。帯域幅の検出は100%信頼できないため、技術的な問題が発生する可能性がある。
一部のオーディオコーディングツール、例えば、一時的ノイズシェーピング(TNS)またはノイズフィリング(NF)は、例えば、ツールがアクティブな信号部分を認識していない場合など、帯域制限されたオーディオファイルで動作するときに厄介なアーティファクトを引き起こす可能性がある。WB信号が32KHzでコーディングされていると想定すると、ツールは上部スペクトル(8~16KHz)を人工ノイズで満たす可能性がある。
図1は、ガイドなしのツールによって生成された人工ノイズを示している。ライン11はWBまでのアクティブな信号であるが、信号12は、アクティブなオーディオ帯域幅を認識していないパラメトリックツール(例えば、ノイズフィリング)によって人工的に生成されている。
したがって、ツールは、アクティブな周波数領域でのみ動作するように制限する必要がある。
AACなどの一部のコーデックは、スケールファクターバンドごとのアクティブなスペクトルに関する情報を送信するように構成されている。この情報は、コーディングツールの制御にも使用される。これにより正確な結果が得られるが、送信すべきサイド情報の量がかなり必要になる。音声は通常、NB、WB、SWB、およびFBで送信されるだけなので、この限られた有効帯域幅のセットを使用して、サイド情報を制限することが好ましい。
帯域幅検出器が時々間違った結果を返すことは避けられない。例えば、検出器は音楽信号のフェードアウトを見て、これを低帯域幅の場合と解釈する場合がある。異なる帯域幅モード(NB、WB、SWB、FB)間を厳密に切り替えるコーデック、例えば3GPP EVSコーデック[1]の場合、これは長方形のスペクトルホールになる。厳密にとは、完全なコーディング操作が検出された帯域幅に制限されることを意味する。このような厳密なスイッチにより、可聴アーティファクトが生じる場合がある。図2は、誤った検出から生じるスペクトルホール22を概説している。
図2は、誤った帯域幅検出の概略図を示している。すべてのコーディングツールが低いオーディオ帯域幅で機能し、長方形のスペクトルホール22につながっている。
上記のような欠陥を克服または軽減することが求められている。
1.1 参考文
[1]3GPP EVSコーデック、http://www.3gpp.org/ftp//Specs/archive/26_series/26.445/26445-e10.zip、セクション5.1.6「帯域幅検出」
3GPP EVSコーデック、http://www.3gpp.org/ftp//Specs/archive/26_series/26.445/26445-e10.zip、セクション5.1.6「帯域幅検出」
2.発明の概要
実施例によれば、エンコーダ装置が提供され、エンコーダ装置は、
情報信号を符号化するための複数の周波数領域、FD、エンコーダツールであって、情報信号は複数のフレームを表すエンコーダツール、および
複数のFDエンコーダツールの少なくともサブグループの帯域幅を選択するように構成されたエンコーダ帯域幅検出器およびコントローラを含み、サブグループは、サブグループのFDエンコーダツールの少なくとも1つが、サブグループにないFDエンコーダツールの少なくとも1つとは異なる帯域幅を有するように、情報信号特性に基づいて、複数のFDエンコーダツールよりも少ないFDエンコーダツールを含む。
したがって、帯域幅の誤った検出に備えながら、スペクトルホールを回避することが可能である。
実施例によれば、サブグループの少なくとも1つのFDエンコーダツールは、一時的ノイズシェーピング、TNS、ツールおよび/またはノイズレベル推定ツールであり得る。
実施例によれば、サブグループにない少なくとも1つのFDエンコーダツールは、線形予測コーディング、LPC、ベースのスペクトルシェーパ、スペクトルノイズシェーパ、SNS、ツール、スペクトル量子化器、および残差コーダの少なくとも1つから選択される。
実施例によれば、エンコーダ帯域幅検出器およびコントローラは、サブグループにないFDエンコーダツールの少なくとも1つに共通する少なくとも第1の帯域幅と、サブグループにないFDエンコーダツールの少なくとも1つの帯域幅とは異なる第2の帯域幅との間で、サブグループの少なくとも1つのFDエンコーダツールの帯域幅を選択するように構成される。
実施例によれば、エンコーダ帯域幅検出器およびコントローラは、情報信号に関する少なくとも1つのエネルギー推定に基づいて、複数のFDエンコーダツールの少なくとも1つの帯域幅を選択するように構成される。
実施例によれば、エンコーダ帯域幅検出器およびコントローラは、複数のFDエンコーダツールの少なくとも1つの帯域幅を制御するために、情報信号の帯域幅に関連する少なくとも1つのエネルギー推定をそれぞれの閾値と比較するように構成される。
実施例によれば、サブグループの複数のFDエンコーダツールの少なくとも1つは、エンコーダ帯域幅検出器およびコントローラによって選択された帯域幅内でTNS入力信号を自己相関させるように構成されたTNSを含む。
実施例によれば、サブグループにないFDエンコーダツールの少なくとも1つは、全帯域幅で動作するように構成される。
したがって、帯域幅の選択は、サブグループのツール(例えば、TNS、ノイズ推定器ツール)に対してのみ機能する。
実施例によれば、エンコーダ帯域幅検出器およびコントローラは、サブグループにないFDエンコーダツールの少なくとも1つが動作するように構成されている全帯域幅内にある少なくとも1つの帯域幅を選択するように構成される。
実施例によれば、複数のFDエンコーダツールの残りのFDエンコーダツールの少なくとも1つは、エンコーダ帯域幅検出器およびコントローラによって選択された帯域幅に関してオープンチェーンで動作するように構成される。
実施例によれば、エンコーダ帯域幅検出器およびコントローラは、有限数の帯域幅の中から、および/または事前定義された帯域幅のセットの中から、帯域幅を選択するように構成される。
したがって、選択は制限され、複雑すぎるパラメータや長いパラメータを符号化する必要はない。実施例では、ビットストリームに使用できるパラメータは1つだけ(例えば、0~3ビットで符号化)である。
例によれば、エンコーダ帯域幅検出器およびコントローラは、8KHz、16KHz、24KHz、32KHz、および48KHz、および/またはNB、WB、SSWB、SWB、FBなどの少なくとも1つまたは組み合わせから選択を実行するように構成される。
実施例によれば、エンコーダ帯域幅検出器およびコントローラは、デコーダへの帯域幅のシグナリングを制御するように構成される。
したがって、デコーダにおいて一部のツールによって処理される信号の帯域幅も制御できる(例えば、同じ帯域幅を使用する)。
実施例によれば、エンコーダ装置は、選択された帯域幅に関する情報を含む制御データフィールドを符号化するように構成される。
実施例によれば、エンコーダ装置は、以下を含む制御データフィールドを定義するように構成される。
NB帯域幅に対応する0データビット
NB、WB帯域幅に対応する1データビット
NB、WB、SSWB帯域幅に対応する2データビット
NB、WB、SSWB、SWB帯域幅に対応する2データビット
NB、WB、SSWB、SWB、FB帯域幅に対応する3データビット。
実施例によれば、エンコーダ装置の少なくとも1つのエネルギー推定は、以下によって実行される。
Figure 0007003253000001
によって実行され、ここで、
Figure 0007003253000002
はMDCT(またはMDST…)係数であり、
Figure 0007003253000003
はバンドの数であり、
Figure 0007003253000004
はバンドに関連付けられたインデックスである。
実施例によれば、エンコーダ装置は、自己相関関数の計算を含むフィルタリング動作を実行するように構成され得るTNSツールを含む。可能な自己相関関数の1つは、次の形式になる。

Figure 0007003253000005
Figure 0007003253000006
について
Figure 0007003253000007
および
Figure 0007003253000008
であり、
ここで、
Figure 0007003253000009
はMDCT係数であり、
Figure 0007003253000010
および
Figure 0007003253000011
は、エンコーダの帯域幅検出器およびコントローラによって検出された特定の帯域幅に関連付けられている。
実施例によれば、エンコーダ装置は、ノイズレベルを推定するように構成され得るノイズ推定器ツールを含み得る。そのような推定に使用される手順の1つは、
Figure 0007003253000012
という形式になり、ここで、ggはグローバル利得、
Figure 0007003253000013
はノイズレベルが推定されるスペクトル線の識別、および
Figure 0007003253000014
は信号(例えば、MDCTまたはMDSTまたはTNS後の別のFDスペクトル)を指す。
実施例では、
Figure 0007003253000015

Figure 0007003253000016
で得ることができ、ここで、
Figure 0007003253000017
はエンコーダの帯域幅検出器およびコントローラによって検出された帯域幅に依存する。
実施例によれば、ビットストリームに符号化された情報信号を復号するための複数のFDデコーダツールを含むデコーダ装置が提供されてもよく、
FDデコーダツールは
少なくとも1つのFDデコーダツールを含むサブグループ、
少なくとも1つのFDデコーダツールを含む残りのFDデコーダツール、に分割されており、
ここで、デコーダ装置は、サブグループの複数のデコーダツールの少なくとも1つが、複数のデコーダツールの残りのFDデコーダツールの少なくとも1つとは異なる帯域幅で信号処理するように構成される。
実施例によれば、デコーダ装置は、帯域幅情報に基づいて帯域幅を選択するように構成された帯域幅コントローラを含むことができる。
実施例によれば、デコーダ装置は、サブグループが、デコーダノイズ推定器ツールおよび/または一時的ノイズシェーピング、TNS、デコーダの少なくとも1つを含むようなものであり得る。
実施例によれば、残りのFDデコーダツールの少なくとも1つは、線形予測コーディング、LPC、デコーダツール、スペクトルノイズシェーパデコーダ、SNS、ツール、デコーダのグローバル利得ツール、MDCTまたはMDSTシェーピングツールの少なくとも1つである。
実施例によれば、デコーダ装置は、サブグループ内の複数のデコーダツールの少なくとも1つの帯域幅を、
残りのFDデコーダツールの少なくとも1つに共通の少なくとも第1の帯域幅、および
第1の帯域幅とは異なる少なくとも第2の帯域幅の間で制御するように構成され得る。
実施例によれば、残りのFDデコーダツールの少なくとも1つは、全帯域幅で動作するように構成される。
実施例によれば、残りのFDデコーダツールの少なくとも1つは、(例えば、帯域幅コントローラによって選択された)帯域幅に関してオープンチェーンで動作するように構成される。
実施例によれば、帯域幅コントローラは、有限数の帯域幅の中から、および/または事前定義された帯域幅のセットの中から、帯域幅を選択するように構成される。
実施例によれば、帯域幅コントローラは、8KHz、16KHz、24KHz、32KHz、および48KHz、および/またはNB、WB、SSWB、SWB、FBの少なくとも1つまたは組み合わせから選択を実行するように構成される。
実施例によれば、デコーダは、インデックスを使用してノイズレベルを適用するように構成されたノイズフィリングツール(46)をさらに含むことができる。インデックスを得るための手法には、例えば、
Figure 0007003253000018
があってもよく、
Figure 0007003253000019
は、ビットストリーム内の帯域幅情報に基づいて得られる。
実施例によれば、デコーダ装置は、以下の動作の少なくとも一部を実行するように構成されたTNSデコーダツールを含むことができる。
Figure 0007003253000020
Figure 0007003253000021
Figure 0007003253000022
Figure 0007003253000023
Figure 0007003253000024
Figure 0007003253000025
Figure 0007003253000026
Figure 0007003253000027
ここで、
Figure 0007003253000028
はTNSデコーダの出力であり、
Figure 0007003253000029
はTNSデコーダの入力であり、
Figure 0007003253000030

Figure 0007003253000031

Figure 0007003253000032
は、ビットストリーム内の帯域幅情報に基づいて得られる。
TNSやノイズフィルなどのコーディングツールは、帯域制限された信号のサイレントセクションに不要な人工ノイズを作成する可能性がある。したがって、帯域幅検出器は通常、すべてのコーディングツールが動作する帯域幅を制御するために連携している。帯域幅の検出が不確実な結果につながる可能性があるため、このような誤った検出は、オーディオ帯域幅の突然の制限などの可聴アーティファクトにつながる可能性がある。
この問題を克服するために、一部の例では、量子化器などの一部のツールは、帯域幅検出器によって制御されない。誤検出の場合、量子化器は、問題を補償するために、低品質であっても上部スペクトルをコーディングできる。
3.図面の簡単な説明
ガイドなしのツールによって生成される人工ノイズを示す。 誤った帯域幅検出の概要を示す。 実施例によるエンコーダ装置を示す。 実施例によるエンコーダ装置を示す。 実施例によるデコーダ装置を示す。 実施例によるデコーダ装置を示す。 誤った帯域幅検出の場合の方式を示す。 実施例による方法を示す。 実施例による方法を示す。 実施例による方法を示す。 実施例による、エンコーダにおけるTNSの方法を示す。 実施例による装置を示す。 実施例による装置を示す。
4.発明に関する議論
この文書に記載されている発明は、帯域幅検出器が誤った結果を返す場合でも、スペクトルホールの発生を回避することを可能にする。特に、オーディオコーディングアプリケーションのためのソフトバンドスイッチングが得られてもよい。
重要な側面は、例えばTNSおよびNFなどのパラメトリックコーディングツールが、残りのコーディング、つまりLPCベースのスペクトルシェーパまたはスペクトルノイズシェーパ、SNS、スペクトル量子化器および残差コーダが、ナイキスト周波数までの全オーディオ帯域幅で機能していても、帯域幅検出器およびコントローラ39によって厳密に制御できることである。
図3および3aは、帯域幅(BW)検出器およびコントローラ39が、MDCTまたはMDSTスペクトル(または他のFDスペクトル)から導出されたエネルギーに基づいてフレーム内の現在のオーディオ帯域幅を推定するエンコーダ装置30および30aの例の概要を示す。
デコーダ側(図4および4a)では、TNSおよびNFのガイド帯域幅情報がビットストリームから抽出され、それに応じてツールが制御される。
その結果、TNSおよびNFコーディングツール(ガイドなしツール)を制御するために使用される帯域幅パラメータにより、非アクティブスペクトル領域で人工的に生成されるノイズが回避される。このツールはアクティブなオーディオ部分でのみ動作するため、人工ノイズを生成しない。
一方、誤った検出(誤った帯域幅検出)の可聴効果は、残りのコーディングツール(例えば、スペクトル量子化器、LPCシェーパまたはSNS(スペクトルノイズシェーパ)、および残差コーダ)がナイキスト周波数まで動作するため、著しく低減する。誤った検出の場合、これらのツールは、少なくとも通常のコーディングと比較して多少の歪みを伴って、より高い周波数をコーディングできるため、オーディオ帯域幅が突然低下するというより深刻な影響を回避できる。
図5は、帯域幅が誤って検出された場合の新しい方式を示しており、スペクトルホールはまばらに量子化されているが、可聴帯域幅の低下は回避されている。
上の図で概説されている領域にほとんどゼロの値が含まれている場合、最後の非ゼロのスペクトルタプルに関する情報が算術コーダのサイド情報として送信されるため、算術コーダはそれらをコーディングする必要はない。これは、算術コーダにオーバーヘッドが必要ないことを意味する。
送信帯域幅に必要なサイド情報も最小限に抑えられる。堅牢なスイッチング動作により、通常使用される通信オーディオ帯域幅、つまりNB、WB、SSWB、およびSWBのシグナリングが適切である。
この手法により、フレームの依存関係や長い履歴メモリを使用せずに複雑さの少ない帯域幅検出器を構築して、安定した決定を行うこともできる。EVSコーデック[1]セクション5.1.6を参照されたい。これは、新しい手法により、帯域幅検出器およびコントローラ39がオーディオ帯域幅の変化に非常に速く反応できるようになることを意味する。
したがって、帯域幅情報は、コーデック(例えば、オーディオコーデック)の特定のツールのみを制御し、残りのツールを別の操作モード(例えば、全帯域幅)に維持するために使用される。
5.実施例
5.1 帯域幅の検出とツールの制御
情報信号(例えば、オーディオ信号)は、時間領域、TDで、異なる離散時刻(n)で取得された一連のサンプル(例えば、x(n))として記述できる。TD表現は、それぞれが複数のサンプル(例えば、フレームごとに2048サンプル)に関連付けられている複数のフレームから作成することができる。周波数領域、FDでは、フレームは、それぞれが特定の周波数に関連付けられている一連のビン(例えば、X(k))として表すことができる(各周波数はインデックスkに関連付けられている)。
図3および3aは、それぞれエンコーダ装置30および30aを示し、それぞれが、エンコーダ装置30または30aの一部のツール(エンコーダにおけるサブグループ)の帯域幅を選択することができるエンコーダ帯域幅検出器およびコントローラ39を含み、その結果、他のツールは異なる帯域幅で動作する。エンコーダ帯域幅検出器およびコントローラ39はまた、デコーダ(デコーダにおけるサブグループ)の少なくとも一部のツールのための帯域幅を選択することができる。39aは、エンコーダ帯域幅検出器およびコントローラ39によってサブグループ(例えば、33、36)および/またはデコーダのツールに提供される帯域幅選択情報を指す。
エンコーダ装置30および30aのそれぞれは、低遅延修正離散コサイン変換、MDCT、ツール31または低遅延修正離散サイン変換、MDST、ツール31(または重複変換などの別の変換に基づくツール)を備えることができ、これらは、情報信号(例えば、オーディオ信号)を(例えば、MDCT、MDST、またはより一般的には、FD係数を得るために)時間領域、TD、表現から周波数領域、FD、表現に変換することができる。
エンコーダ装置30は、FDでLPC分析を実行するための線形予測符号化、LPC、ツール32を含むことができる。
エンコーダ装置30aは、FDでSNS分析を実行するためのSNSツール32aを含むことができる。
エンコーダ装置30および30aのそれぞれは、FD内の(例えば、MDCTまたはMDSTツールによる出力としての)情報信号の各ウィンドウ内のノイズの一時的形状を制御するための一時的ノイズシェーピング、TNS、ツール33を含むことができる。
エンコーダ装置30および30aのそれぞれは、FD内の信号を処理するスペクトル量子化器34を含むことができる。TNSツール33による出力としての信号は、例えば、不感帯および均一閾値のスカラー量子化を使用して、量子化することができる。利得インデックスは、量子化されたFD信号を符号化するために必要なビット数が、利用可能なビットバジェットにできるだけ近くなるように選択できる。
エンコーダ装置30および30aのそれぞれは、例えば、ビットストリームを圧縮するための、例えば、エントロピーコーディングを実行するために、FD内の信号を処理するコーダ35を含むことができる。コーダ35は、例えば、残差コーディングおよび/または算術コーディングを実行することができる。
エンコーダ装置30および30aのそれぞれは、FD内の信号を処理して、ノイズを推定し、それを量子化し、および/またはビットストリームで送信する、例えば、ノイズレベル推定ツール36を含むことができる。
実施例では、レベル推定ツール36は、コーダ35の上流または下流に配置され得る。
エンコーダ装置30および30aのそれぞれは、時間領域TDで信号を処理するツールを含むことができる。例えば、エンコーダ装置30または30aは、再サンプリングツール38a(例えば、ダウンサンプラ)および/または長期ポストフィルタリング、LTPFがTDでアクティブであるようにデコーダにおいて制御するためのLTPFツール38bを含むことができる。
エンコーダ装置30および30aのそれぞれは、上流に配置されたTDおよび/またはFDツールから得られたデータでビットストリームを準備するためのビットストリーム多重化ツール37を含むことができる。ビットストリームは、デコーダで使用される制御データ(例えば、デコーダの一部のツールで帯域幅を選択するための帯域幅情報を含む)とともに情報信号のデジタル表現を含むことができる。ビットストリームは、圧縮されるか、または圧縮される部分を含むことができる。
したがって、エンコーダ装置30および30aのそれぞれは、FDツール(例えば、31~36)、および場合によっては、TDツール(例えば、38a、38b)を含むことができる。
エンコーダ帯域幅検出器およびコントローラ39は、一時的ノイズシェーピング、TNS、ツール33、および/またはノイズ推定器ツール36などの第1のグループ(サブグループ)を形成するFDツールの帯域幅を制御することができる。TNSツール33を使用して、量子化ノイズを制御することができる。したがって、サブグループに含まれないFDツール(LPCツール32および/またはSNSツール32a、スペクトル量子化器34、およびコーダ35の少なくとも1つなど)が信号処理を実行する帯域幅は、サブグループのツール(33、36など)が信号処理を実行する帯域幅とは異なる場合がある。例えば、サブグループに含まれないFDツールの帯域幅は、より大きくなる場合があり、例えば、全帯域幅になる場合がある。
実施例では、エンコーダ帯域幅検出器およびコントローラ39は、例えば、エンコーダ装置の他のツールも実装するデジタル信号プロセッサの一部であり得る。
図4および4aは、それぞれ、例えば、エンコーダ30または30aによって符号化された情報信号のデジタル表現を復号することができるデコーダ装置40および40aを示す。デコーダ装置40および40aのそれぞれは、FDツール、および場合によっては、TDツールを含むことができる。
デコーダ装置40および40aのそれぞれは、エンコーダ装置(例えば、装置30または30a)から(例えば、送信によって)ビットストリームを得るためのビットストリーム多重化ツール41を含むことができる。例えば、エンコーダ装置30または30aからの出力は、デコーダ装置40または40aへの入力信号として提供されてもよい。
デコーダ装置40および40aのそれぞれは、例えば、ビットストリーム中のデータを解凍することができるデコーダ42を含むことができる。算術復号が実行される場合がある。残差復号が実行される場合がある。
デコーダ装置40および40aのそれぞれは、FD内の信号を処理するノイズフィリングツール43を含むことができる。
デコーダ装置40および40aのそれぞれは、FD内の信号を処理するグローバル利得ツール44を含むことができる。
デコーダ装置40および40aのそれぞれは、FD内の信号を処理するTNSデコーダツール45を含むことができる。TNSは次のように簡単に説明できる。エンコーダ側で、量子化の前に、線形予測、LP、を使用して信号を周波数領域(FD)でフィルタリングして、時間領域で信号を平坦化する。デコーダ側で、逆量子化の後、逆予測フィルタを使用して信号を周波数領域でフィルタリングして、信号によってマスクされるように時間領域で量子化ノイズを整形する。
デコーダ装置40および40aのそれぞれは、MDCTまたはMDSTシェーピングツール46を含むことができる(他の種類の成形ツールを使用することができる)。特に、MDCTまたはMDSTシェーピングツール46は、エンコーダSNSツール32aから得たスケール係数(または量子化スケール係数)または(LPC復号ツール47から得た)MDCTまたはMDSTスペクトルに変換された、復号されたLPフィルタ係数から計算された利得係数を適用することにより信号を処理する。
デコーダ装置40および40aのそれぞれは、信号表現をFDからTDに変換するための逆低遅延逆MDCTまたはMDSTツール48aを含むことができる(他の種類の逆変換に基づくツールを使用することができる)。
デコーダ装置40および40aのそれぞれは、例えば、デコーダにおいてコンポーネント38bによって提供されるパラメータに基づいて、TDにおいてポストフィルタを実行するためのLTPFツール48bを含むことができる。
デコーダ装置40および40aのそれぞれは、FDツールの少なくとも1つの帯域幅を選択するように構成されたデコーダ帯域幅コントローラ49を含むことができる。特に、(例えば、ツール43および45によって形成される)サブグループの帯域幅は、他のFDツール(42、44、46、47)が信号を処理する帯域幅とは異なるように制御され得る。帯域幅コントローラ49に、エンコーダ側で(例えば、帯域幅検出器およびコントローラ39によって)準備された信号39aを入力して、サブグループ(33、36、43、45)の少なくとも1つのために選択された帯域幅を示すことができる。
実施例では、デコーダ帯域幅コントローラ49は、エンコーダ帯域幅検出器およびコントローラ39によって処理されるものと同様の動作を実行することができる。しかしながら、一部の実施例では、デコーダ帯域幅コントローラ49は、エンコーダ帯域幅検出器およびコントローラ39から制御データ(例えば、ビットストリームに符号化される)を取得し、制御データ(例えば、帯域幅情報)をサブグループのツール(例えば、デコーダノイズフィリングツール43および/またはTNSデコーダツール45)に提供するコンポーネントとして意図され得る。実施例では、コントローラ39はマスタであり、コントローラ49はスレーブである。実施例では、デコーダ帯域幅コントローラ49は、例えば、デコーダの他のツールも実装するデジタル信号プロセッサの一部またはセクションであり得る。
一般に、帯域幅コントローラ39および49は、サブグループのFDツール(例えば、エンコーダ装置用の33および36および/またはデコーダ装置用の43および45)が同じ周波数帯域を有するように動作することができ、一方、他のデコーダおよび/またはエンコーダのFDツールは、別の周波数帯域(例えば、より広い帯域)を有する。
したがって、実際、従来技術の欠陥を低減することが可能であることが指摘されている。一部のFDツール(例えば、TNSツール、ノイズフィリングツール)では実際に帯域選択を実行することが望ましい場合があるが、他のFDツール(例えば、32、34、35、42、44、46、47)ではより広い帯域(例えば、全帯域)で信号を処理することが望ましい場合がある。したがって、すべてのツールの帯域幅を厳密に選択した場合(特に、誤った帯域が選択された場合)に存在し得るスペクトルホールを回避できる。
実施例では、デコーダ帯域幅コントローラ49によって選択される帯域幅は、有限数の選択肢(例えば、有限数の帯域幅)の1つであり得る。実施例では、狭帯域NB(例えば、4KHz)、広帯域WB(例えば、8KHz)、半超広帯域SSWB(例えば、12KHz)、超広帯域SWB(例えば、16KHz)、または全帯域FB(例えば、20KHz)から選択できる。
選択は、(例えば、エンコーダ帯域幅検出器およびコントローラ39によって実行される選択に従って)どの帯域幅が選択されたかをデコーダ装置が知ることができるように、エンコーダ装置によってデータフィールドに符号化され得る。
図6aは方法60を示す。方法60は、少なくとも部分的に、コントローラ39および49の少なくとも1つによって実行され得るステップを含み得る。方法60は、情報信号の各フレームに関連する動作を実行するようにループされてもよい。
ステップS61において、帯域ごとのエネルギーが(例えば、帯域幅検出器およびコントローラ39によって)推定され得る。
ステップS62において、帯域幅が(例えば、帯域幅検出器およびコントローラ39によって)検出され得る。
ステップS63において、検出された帯域幅は、TNSツール33およびノイズ推定ツール36の少なくとも1つに対して選択することができ、これらのツールは、S62において検出された帯域幅でそれらのプロセスを実行する。
それに加えて、またはその代わりに、ステップS64において、パラメータは、ビットストリーム内で定義(および/または符号化)され、記憶および/または送信され、デコーダによって使用されてもよい。パラメータの中で、帯域幅選択情報(39aなど)が符号化され、それによりデコーダは、サブグループ(例えば、TNSおよびノイズフィリング/推定)のために検出および選択された帯域幅を知ることができる。
次に、情報信号の新しいフレームを検査することができる。したがって、方法60は、S61に移動することによって循環することができる。したがって、決定はフレームごとに実行されてもよい。
特に、検出された帯域幅に従って、異なる数のビットがビットストリームに符号化され得る。実施例では、8KHz(NB)の帯域幅が検出された場合、ビットストリームでビットは符号化されない。ただし、デコーダは帯域幅が8KHzであることを理解している。
図3および3aのエンコーダ装置30および30aのそれぞれは、
情報信号を符号化するための複数の周波数領域、FD、エンコーダツール(31~36)であって、情報信号は複数のフレームを表す、エンコーダツール、および
サブグループのFDエンコーダツールの少なくとも1つ(例えば、33、36)が、サブグループにないFDエンコーダツールの少なくとも1つ(例えば、31、32、34、35)とは異なる帯域幅を持つように、情報信号の特性に基づいて、複数のFDエンコーダツールの少なくともサブグループ(例えば、TNSツール33、およびノイズレベル推定ツール36)の帯域幅を(例えば、S63で)選択するように構成されたエンコーダ帯域幅検出器およびコントローラ39を含む。
特に、エンコーダ帯域幅検出器およびコントローラ39は、サブグループの少なくとも1つのFDエンコーダツール(33、36)の帯域幅を、サブグループにないFDエンコーダツールの少なくとも1つ(またはそれ以上の)に共通の少なくとも第1の帯域幅(例えば、ナイキスト周波数)と、サブグループにないFDエンコーダツールの少なくとも1つ(またはそれ以上)の帯域幅とは異なる第2の帯域幅(例えば、NB、WB、SSWB、SWB)との間で選択するように構成され得る。
したがって、ツールによっては、互いに異なる帯域幅で動作し、かつ/または互いに異なる帯域幅を使用して信号処理を実行する場合がある。
サブグループにないツール(例えば、グローバル利得、スペクトルノイズシェーピング)は、帯域幅の選択に関してオープンチェーンで動作する場合がある。
実施例では、エンコーダ帯域幅検出器およびコントローラ39は、情報信号に関する少なくとも1つのエネルギー推定(例えば、S61)に基づいて、複数のFDエンコーダツール(31~36)の少なくとも1つの帯域幅を選択(例えば、S62)するように構成される。
図4のデコーダ装置40は、ビットストリームに符号化された情報信号を復号するための複数のFDデコーダツール(43~48a)を含み、ここで
FDデコーダツールは
少なくとも1つのFDデコーダツール(例えば、43、45)を含むサブグループ、
少なくとも1つのFDデコーダツールを含む残りのFDデコーダツール(例えば、44、46、48a)に分割されており、
ここで、デコーダ装置40または40aは、ビットストリームに含まれる帯域幅情報に基づいて、サブグループ(例えば、43、45)の複数のデコーダツールの少なくとも1つの帯域幅を選択するように構成され、それによりサブグループの複数のデコーダツールの1つ(例えば、43、45)は、複数のデコーダツールの残りのFDデコーダツールの少なくとも1つ(例えば、44、46、48a)とは異なる帯域幅で信号処理を実行する。
図6bは、方法60bを示す。方法60bは、周波数領域、FD、における少なくとも複数の動作に従って情報信号を符号化するための方法であってもよく、方法は、
FD動作のサブグループのための帯域幅を選択するステップ(例えば、S61b)、
FD動作のサブグループのための帯域幅で第1の信号処理動作を実行するステップ(例えば、S62b)、
サブグループにないFD動作のための異なる帯域幅で第2の信号処理動作を実行するステップ(例えば、S63b)を含む。
例えば、ステップS61bおよびS62bをこの時間的順序で実行する必要はない。例えば、S62bは、S61bの前に実行されてもよい。S61bおよびS62bはまた、(例えば、時分割技術または類似のものを使用して)並行して実行されてもよい。
図6cは、方法60cを示す。方法60cは、情報信号および制御データ(例えば、39a)を用いてビットストリームを復号するための方法であってもよく、方法は、周波数領域、FD、における複数の信号処理動作を含み、方法は、
制御データに基づいてFD動作のサブグループのための帯域幅選択を選択するステップ(S61c)、
FD動作のサブグループのための帯域幅で第1の信号処理動作を実行するステップ(S62c)、
サブグループにないFD動作のための異なる帯域幅で第2の信号処理動作を実行するステップ(S63c)を含む。
例えば、ステップS61cおよびS62cをこの時間的順序で実行する必要はない。例えば、S62cは、S61cの前に実行されてもよい。S61cおよびS62cはまた、(例えば、時分割技術または類似のものを使用して)並行して実行されてもよい。
一例によれば、エンコーダ帯域幅検出器およびコントローラ39は、例えば、
Figure 0007003253000033
のような方程式を使用して、帯域ごとのエネルギーを検出することができ、ここで、
Figure 0007003253000034
はMDCTまたはMDST係数(またはFD内の信号の他の表現)であり、
Figure 0007003253000035
(例えば64)は帯域の数であり、
Figure 0007003253000036
は帯域に関連付けられたインデックスである(各インデックスはビンに関連付けられている)。
したがって、(例えば、有限数の帯域幅の中から)帯域幅を(例えば、S62で)検出することが可能である。エンコーダ帯域幅検出器およびコントローラ39は、音声通信において一般的に使用される帯域幅、すなわち4kHz、8kHz、12kHzおよび16kHzを検出することができてもよい。例えば、各帯域幅の静粛性を検出することが可能である。帯域幅の静粛性が確実に検出された場合、スペクトル上の専用のカットオフ特性がさらに検出される。例えば、静粛性の検出に関するフラグ(またはいずれの場合もデータ)は、次のように得られる。
Figure 0007003253000037
Figure 0007003253000038
Figure 0007003253000039
は、合計が
Figure 0007003253000040
より小さい場合は1、合計が
Figure 0007003253000041
より大きい場合は0のバイナリ値である。特定の帯域幅
Figure 0007003253000042
に関連付けられている
Figure 0007003253000043
は、エネルギー値の合計が特定の帯域幅
Figure 0007003253000044
の閾値未満(およびその他の場合は「0」)である場合の静粛性を(例えば、論理値「1」によって)示す。合計は、さまざまなインデックス(例えば、ビンまたは帯域ごとのエネルギー)におけるエネルギー値の合計に関連しており、例えば
Figure 0007003253000045
は、インデックス
Figure 0007003253000046
に関連付けられた帯域幅の最初のインデックスからインデックス
Figure 0007003253000047
に関連付けられた帯域幅の最後のインデックスまでである。調べた帯域幅の数は
Figure 0007003253000048
である。
手順は
Figure 0007003253000049
の場合に停止することがある(エネルギーが帯域幅
Figure 0007003253000050
の閾値より大きい場合)。
Figure 0007003253000051
の場合、スペクトルのカットオフ特性を示すフラグ
Figure 0007003253000052
は、
Figure 0007003253000053
によって検出することができ、ここで、
Figure 0007003253000054
はカットオフ特性を確認する必要がある帯域間の距離、つまり
Figure 0007003253000055
を定義する。
次に、サブグループを制御するために使用される最終情報(帯域幅情報または帯域幅選択情報)を定義することが可能である(例えば、TNSツール33および/またはノイズレベル推定ツール36および/またはTNSデコーダツール45および/またはノイズフィリングツール43)。最終的な情報は、例えば、いくつかのビットに符号化され、以下のような形をとることがある。
Figure 0007003253000056
パラメータの帯域幅
Figure 0007003253000057
(帯域幅選択情報)を使用して、例えばデコーダでTNSおよびノイズフィリングツールを制御し、信号39aを具体化することができる。パラメータ
Figure 0007003253000058
は、記憶および/またはビット数
Figure 0007003253000059
を使用してビットストリームで送信されてもよい。特に、ビット数は必ずしも一定ではなく、選択されたサンプルレート
Figure 0007003253000060
に応じて変化する可能性があるため、必要のない場合はビットストリームのペイロードが減る。
次のような表を使用できる
Figure 0007003253000061
Figure 0007003253000062
は所定のサンプリングレート(例えば、8KHz、16KHz、24KHz、32KHz、48KHz)であり、各
Figure 0007003253000063
について、可能なモードの数は
Figure 0007003253000064
である。
したがって、以下を含む制御データフィールドを0データ符号化することが可能である。
NB帯域幅(の選択の通知)に対応する0データビット
NBおよびWB帯域幅(の1つの選択の通知)に対応する1つのデータビット
NB、WB、およびSSWB帯域幅(の1つの選択の通知)に対応する2データビット
NB、WB、SSWB、およびSWB帯域幅(の1つの選択の通知)に対応する2データビット
NB、WB、SSWB、SWB、およびFB帯域幅(の1つの選択の通知)に対応する3データビット。
表1の少なくとも一部の部分の電子バージョンは、エンコーダおよび/またはエンコーダに記憶され得る。したがって、パラメータ帯域幅
Figure 0007003253000065
が、TNSおよびノイズフィリング動作のための制御情報を自動的に知ることが可能である。例えば、
Figure 0007003253000066
は帯域幅の下限に関連付けられた開始インデックスを参照する場合があり、
Figure 0007003253000067
は帯域幅の上限に関連付けられた最終インデックスを参照する場合がある。したがって、帯域幅の選択と、この選択に基づくパラメータは、表1などの表から導出できる。
実施例では、
Figure 0007003253000068
の場合、帯域幅検出器は不要であり、
Figure 0007003253000069
および
Figure 0007003253000070
である。つまり、パラメータ
Figure 0007003253000071
はビットストリームに配置されない。しかしながら、デコーダは、選択された帯域幅が(例えば、表1の電子バージョンなどの電子機器に基づいて)NBであることを理解するであろう。
他の方法が使用されてもよい。帯域幅NB、WB、SSWB、SWB、FBの1つが識別され、TNSシェーピングツール33やノイズ推定器ツール36などのエンコーダサブグループのFDツールに送信される。パラメータ
Figure 0007003253000072
(39a)などの情報は、符号化され、デコーダ装置40または40aに送信することができ、それにより、デコーダノイズ推定器ツール43およびTNSデコーダツール45は、選択された帯域幅に関する情報を利用する。
一般的に、帯域幅の選択の基となる情報信号特性は、とりわけ、信号帯域幅、情報信号の少なくとも1つのエネルギー推定、スペクトル上のカットオフ特性、特定の帯域、
Figure 0007003253000073
、での静粛性の検出に関する情報などの1つ以上を含んでもよい。
上記の例では、柔軟な帯域幅の切り替えが可能である。
5.2 エンコーダでのMDCTまたはMDST(またはその他の変換)
修正離散コサイン変換(MDCT)または修正離散サイン変換(MDST)(または別の変調ラップ変換)ツール31は、TDのデジタル表現をFDのデジタル表現に変換することができる。それにもかかわらず、他の例(ラップ変換などの他の変換に基づく可能性がある)は、使用されてもよい。ここに例を示す。
TDの現在のフレーム
Figure 0007003253000074
の入力信号
Figure 0007003253000075

Figure 0007003253000076
オーディオサンプルで構成されてもよく、最新のものは
Figure 0007003253000077
にある。過去のフレームのオーディオサンプルは、負のインデックスによってアクセスされ、例えば
Figure 0007003253000078
は前のフレームの最新のものである。
MDCTの時間入力バッファ
Figure 0007003253000079
は、

Figure 0007003253000080

Figure 0007003253000081
(一貫性のために初期化が必要)
に従って更新され得る。
Figure 0007003253000082
時間サンプルのブロックは、以下の方程式
Figure 0007003253000083
を使用して周波数係数
Figure 0007003253000084
に変換でき、ここで、
Figure 0007003253000085
は使用されているフレームサイズに応じた低遅延MDCTウィンドウである。ウィンドウは
Figure 0007003253000086
で最適化され、異なるフレームサイズの他のバージョンが補間によって生成され得る。ウィンドウの形状は、最適化手順の結果であってもよく、ポイントごとに提供され得る。
MDSTまたは他の変換を適用することも可能である。
5.3.1 エンコーダでのLPC
線形予測コーディング(LPC)分析は、LPCツール32によって実行され得る。LPCは、線形予測モデルの情報を使用して、デジタル信号のスペクトルエンベロープを圧縮形式で表すために使用される。
LPCフィルタは、歪んだ周波数領域で導出され得るため、音響心理学的に最適化される。自己相関関数を得るために、上記で定義されたエネルギー
Figure 0007003253000087
は、
Figure 0007003253000088
によって定義され
Figure 0007003253000089
そして、例えば逆奇数DFT
Figure 0007003253000090
Figure 0007003253000091

を使用して時間領域に変換される。
Figure 0007003253000092
の場合、
Figure 0007003253000093
および
Figure 0007003253000094
と設定する。最初の
Figure 0007003253000095
個のサンプルは、ベクトル
Figure 0007003253000096
に抽出され、
Figure 0007003253000097
はLPフィルタ次数、つまり
Figure 0007003253000098
を表す。
LPフィルタ係数は、例えば、レビンソン・ダービン手順により、ベクトル
Figure 0007003253000099
に基づいて計算されてもよい。この手順は、以下の疑似コード
Figure 0007003253000100
Figure 0007003253000101
Figure 0007003253000102
Figure 0007003253000103
Figure 0007003253000104
Figure 0007003253000105
Figure 0007003253000106
Figure 0007003253000107
Figure 0007003253000108
で説明でき、
Figure 0007003253000109
は推定されたLPC係数であり、
Figure 0007003253000110
は予測誤差である。
LPC係数は、実施例では次のような方程式
Figure 0007003253000111
によって重み付けされる。LPC係数は量子化できる。
例えば、重み付けされたLPC係数
Figure 0007003253000112
は、最初に係数
Figure 0007003253000113

Figure 0007003253000114
を使用して畳み込まれ、ここで
Figure 0007003253000115
および
Figure 0007003253000116
である。
次に、係数
Figure 0007003253000117
は、
Figure 0007003253000118
を使用して周波数領域に変換でき、ここで
Figure 0007003253000119
は変換の長さである。この変換は、プルーニングFFTを使用して効率的に実装できることに注意されたい。次に、
Figure 0007003253000120
の実数部と虚数部が抽出される。
Figure 0007003253000121
LSFは、次の疑似コードで説明できる
Figure 0007003253000122
および
Figure 0007003253000123
のゼロクロッシング検索によって得られる
Figure 0007003253000124
検出されたLSFが16未満の場合、LSFは以下に従って設定される。
Figure 0007003253000125
LPCシェーピングは、MDCTまたはMDSTスペクトルに変換された重み付けされた量子化LPフィルタ係数から計算された利得係数を適用することにより、MDCTまたはMDST(FD)ドメインで実行できる。
Figure 0007003253000126
LPCシェーピング利得を計算するには、まず重み付けされたLPフィルタ係数
Figure 0007003253000127
を、奇数DFTを使用して周波数領域に変換する。
Figure 0007003253000128
LPCシェーピング利得
Figure 0007003253000129
は、
Figure 0007003253000130
の絶対値として得られる。
Figure 0007003253000131
LPCシェーピング利得
Figure 0007003253000132
は、次のコードで概説されるように、シェーピングされたスペクトル
Figure 0007003253000133
を生成するために、各帯域のMDCTまたはMDST周波数ラインに個別に適用できる
Figure 0007003253000134
上記から分かるように、LPC分析を実行するためのLPCツールは、コントローラ39によって制御されず、例えば、特定の帯域幅の選択はない。
5.3.2 エンコーダでのSNS
図4aを参照すると、スペクトルノイズシェーパツール32aを使用することが可能である。
スペクトルノイズシェーピング(SNS)は、人間の耳にはほとんど知覚されないように周波数領域で量子化ノイズをシェーピングし、復号された出力の知覚品質を最大化する。
スペクトルノイズシェーピングは、例えば、16のスケーリングパラメータを使用して実行されてもよい。これらのパラメータは、最初に64の不均一な帯域のMDCT(またはMDST、または別の変換)スペクトルのエネルギーを計算し、次に64のエネルギーにいくつかの処理(平滑化、プリエンファシス、ノイズフロア、対数変換)を行い、次に、64の処理済みエネルギーを係数4でダウンサンプリングして、最終的に正規化およびスケーリングされる16のパラメータが得ることで得られる。次に、これらの16個のパラメータは、ベクトルを使用して量子化される。次に、量子化されたパラメータを補間して、64個の補間されたスケーリングパラメータが得られる。次に、これらの64個のスケーリングパラメータを使用して、64個の不均一な帯域にMDCT(またはMDST…)スペクトルを直接形成する。スケーリングされたMDCT(またはMDST…)係数は、グローバル利得によって制御されるステップサイズのスカラー量子化器を使用して量子化される。デコーダでは、64帯域ごとに逆スケーリングが実行され、スカラー量子化器によって導入された量子化ノイズを整形する。ここに開示されたSNS技術は、例えば、16+1個のパラメータのみをサイド情報として使用することができ、パラメータは、ベクトル量子化を使用して少ないビット数で効率的に符号化することができる。その結果、サイド情報ビットの数が減り、低ビットレートおよび/または低遅延で大きな利点につながる可能性がある。非線形周波数スケーリングを使用することができる。この実施例では、複雑さを軽減するためにいずれのLPC関連の関数も使用されない。必要な処理機能(平滑化、プリエンファシス、ノイズフロア、対数変換、正規化、スケーリング、補間)は、比較すると、必要とされる複雑さは小さい。まだベクトル量子化だけが比較的複雑である。ただし、一部の複雑性の低いベクトル量子化手法は、パフォーマンスの損失が少なく使用できる(マルチスプリット/マルチステージアプローチ)。このSNS手法は、LPCベースの知覚フィルタに依存していない。これは多くの自由度で計算することができる16個のスケーリングパラメータを使用する。したがって、柔軟性が向上する。
エンコーダ30aで、SNSツール32は、以下の少なくとも1つを実行することができる。
・ステップ1:帯域あたりのエネルギー
帯域あたりのエネルギー
Figure 0007003253000135
は、
Figure 0007003253000136
のように計算でき、
Figure 0007003253000137
はMDCT(またはMDST、または別の変換)係数であり、
Figure 0007003253000138
は帯域の数であり、
Figure 0007003253000139
は帯域インデックスである。帯域は不均一で、知覚的に関連するバルク尺度に従う場合がある(低周波数では小さく、高周波数では大きくなる)。
・ステップ2:平滑化
帯域あたりのエネルギー
Figure 0007003253000140
は、
Figure 0007003253000141
を使用して平滑化される。
このステップは主に、ベクトル
Figure 0007003253000142
に現れる可能性のある不安定性を平滑化するために使用できる。平滑化されていない場合、これらの不安定性は、特にエネルギーが0に近い谷で、対数領域に変換すると増幅される(ステップ5を参照)。
・ステップ3:プリエンファシス
次に、帯域あたりの平滑化されたエネルギー
Figure 0007003253000143
は、
Figure 0007003253000144
を使用してプリエンファシスされ、
Figure 0007003253000145
はプリエンファシスの傾きを制御し、サンプリング周波数に依存する。例えば、16KHzで18、48KHzで30である。このステップで使用されるプリエンファシスは、従来技術2のLPCベースの知覚フィルタで使用されるプリエンファシスと同じ目的を持ち、低周波数で整形スペクトルの振幅を増加させ、結果として低周波における量子化ノイズを低減する。
・ステップ4:ノイズフロア
-40dBのノイズフロアが
Figure 0007003253000146

Figure 0007003253000147
を使用して追加され、ノイズフロアは
Figure 0007003253000148
によって計算される。
このステップにより、グロッケンシュピールのような非常に高いスペクトルダイナミクスを含む信号の品質が、谷の整形されたスペクトルの振幅増幅を制限することにより向上し、ピークの量子化ノイズを低減するという間接的な効果がある(谷の量子化ノイズの増加は知覚できない)。
・ステップ5:対数
次に、以下を使用して対数ドメインへの変換が実行される。
Figure 0007003253000149
・ステップ6:ダウンサンプリング
次に、ベクトル
Figure 0007003253000150

Figure 0007003253000151
を使用して、係数4でダウンサンプリングされ、
ここで
Figure 0007003253000152
である。
このステップは、デシメーションの前にベクトル
Figure 0007003253000153
にローパスフィルタ(w(k))を適用する。このローパスフィルタは、心理音響モデルで使用される拡散関数と同様の効果があり、ピークでの量子化ノイズを低減するが、その代わりに知覚的にマスクされているピーク周辺の量子化ノイズが増加する。
・ステップ7:平均の除去とスケーリング
最終的なスケール係数は、平均の除去と0.85の係数によるスケーリングの後に得られる。
Figure 0007003253000154
コーデックには追加のグローバル利得があるため、情報を失うことなく平均値を除去できる。平均を除去すると、ベクトル量子化がより効率的になる。0.85のスケーリングは、ノイズシェーピングカーブの振幅をわずかに圧縮する。これは、ステップ6で説明した拡散関数と同様の知覚効果があり、ピークでの量子化ノイズの低減と、谷での量子化ノイズの増加である。
・ステップ8:量子化
スケール係数は、ベクトル量子化を使用して量子化され、ビットストリームにパックされてデコーダに送信されるインデックスと、量子化されたスケール係数
Figure 0007003253000155
を生成する。
・ステップ9:補間
量子化されたスケール係数
Figure 0007003253000156
は、
Figure 0007003253000157
を使用して補間され、
Figure 0007003253000158
を使用して線形ドメインに変換し直される。
補間は、滑らかなノイズシェーピングカーブを取得し、隣接する帯域間の大きな振幅のジャンプを回避するために使用できる。
・ステップ10:スペクトルシェーピング
SNSスケール係数
Figure 0007003253000159
は、シェーピングされたスペクトル
Figure 0007003253000160
Figure 0007003253000161
を生成するために、各帯域のMDCT(またはMDST、または別の変換)周波数ラインに個別に適用される。
5.4 エンコーダでのTNS
図7は、エンコーダ30または30aのTNSツール33などのTNSツールの動作を示す方法70を示す。
ステップS71において、選択された帯域幅(例えば、パラメータ
Figure 0007003253000162
)に関する選択情報は、例えば、エンコーダ帯域幅検出器およびコントローラ39から得ることができる。
選択情報(帯域幅情報)に応じて、TNSの動作は帯域幅(NB、WB、SSWB、SWB、FB)ごとに異なる。次の表に例を示す
Figure 0007003253000163
例えば、選択情報がSWBの場合、TNSはフィルタリングを2回実行する(num_tns_filtersを参照)。表から分かるように、さまざまなインデックスがさまざまな帯域幅に関連付けられている(例えば、NBの場合、ストップ周波数はWBの場合とは異なる、など)。
したがって、分かるように、TNSツール33は、コントローラ39によって設定された選択に基づいて、異なる帯域幅で動作することができる。特に、同じエンコーダ装置40または40aの他のFDツールは、異なる周波数でプロセスを実行し続けることができる。
TNS符号化のステップを以下に説明する。まず、分析により、各TNSフィルタの反射係数のセットが推定される(ステップS72)。次に、これらの反射係数を量子化する(ステップS73)。最後に、量子化された反射係数を使用して、MDCTまたはMDSTスペクトルがフィルタリングされる(ステップS73)。
ステップS72を参照すると、以下で説明される完全なTNS分析は、すべてのTNSフィルタ
Figure 0007003253000164
に対して繰り返すことができ、
Figure 0007003253000165
である(num_filtersは、表2で与えられている)。反射係数を提供する他のTNS分析動作を実行できる。
TNSツールは、TNS入力値に対して自己相関を実行するように構成できる。正規化された自己相関関数は、
Figure 0007003253000166
のように計算でき、それぞれについて
Figure 0007003253000167
(例えば)であり、
ここで
Figure 0007003253000168
および
Figure 0007003253000169
であり、
Figure 0007003253000170
および
Figure 0007003253000171
は表2で与えられている。
Figure 0007003253000172
は、スペクトルサブセクションのエネルギー合計である(各フィルタのスタート周波数とストップ周波数との間の正規化係数)。
正規化された自己相関関数は、例えば
Figure 0007003253000173
を使用してラグウィンドウできる。
一部の実施例では、予測利得に基づいて、現在のフレームでTNSフィルタ
Figure 0007003253000174
をオン/オフにする決定を実行することができる。
Figure 0007003253000175
の場合、TNSフィルタ
Figure 0007003253000176
をオンにし、ここで
Figure 0007003253000177
であり、予測利得は、
Figure 0007003253000178
のように計算できる。
以下で説明する追加の手順は、TNSフィルタ
Figure 0007003253000179
がオンになっている場合(またはオン/オフを使用しない実施例)にのみ実行される。
一部の実施例では、重み付け係数は
Figure 0007003253000180
により計算され、ここで
Figure 0007003253000181

Figure 0007003253000182
であり、
Figure 0007003253000183
である。
LPC係数は、係数
Figure 0007003253000184
Figure 0007003253000185
を使用して重み付けできる。
重み付けされたLPC係数は、次の手順を使用して反射係数に変換できる。
Figure 0007003253000186
Figure 0007003253000187
Figure 0007003253000188
Figure 0007003253000189
Figure 0007003253000190
Figure 0007003253000191
ここで、
Figure 0007003253000192
はTNSフィルタ
Figure 0007003253000193
の最終的な推定反射係数である。
TNSフィルタ
Figure 0007003253000194
がオフにされる場合、反射係数は単に0と設定され、
Figure 0007003253000195
である。
ステップS73において、量子化ステップが実行されてもよい。例えば、各TNSフィルタ
Figure 0007003253000196
について、(例えば、ステップS72で得られるような)反射係数が量子化されてもよい。例えば、アークサインドメインでのスカラー均一量子化を使用できる。
Figure 0007003253000197
および/または
Figure 0007003253000198
ここで、
Figure 0007003253000199
および
Figure 0007003253000200
は、例えば、最も近い整数への丸め関数であり、
Figure 0007003253000201
は量子化器の出力インデックス、
Figure 0007003253000202
は量子化された反射係数である。
量子化された反射係数の次数は、
Figure 0007003253000203
を使用して計算され、
一方で、
Figure 0007003253000204
および
Figure 0007003253000205
の場合、
Figure 0007003253000206
Figure 0007003253000207
を行う。
現在のフレームでTNSによって消費されるビットの総数は、
Figure 0007003253000208
のように計算でき、
ここで
Figure 0007003253000209
および/または
Figure 0007003253000210
Figure 0007003253000211
は、
整数に丸める演算を意味する。

Figure 0007003253000212
および
Figure 0007003253000213
は、事前定義されている場合がある。
ステップS74で、FD内の情報信号のデジタル表現(例えば、LPCツール32またはSNSツール32aによって提供されるもの)をフィルタリングすることができる。この表現は、実施例では、修正された離散コサインまたはサイン変換(MDCTまたはMDST)の形であり得る。MDCTスペクトル
Figure 0007003253000214
は、例えば
Figure 0007003253000215
Figure 0007003253000216
Figure 0007003253000217
Figure 0007003253000218
Figure 0007003253000219
Figure 0007003253000220
Figure 0007003253000221
Figure 0007003253000222
のアルゴリズムを使用してフィルタリングでき、
ここで
Figure 0007003253000223
は、TNSフィルタ処理されたMDCTまたはMDSTスペクトルである。
他のフィルタリング技術が使用されてもよい。しかしながら、TNSは、信号特性に基づいてコントローラ39によって選択された特定の帯域幅(例えば、NB、WB、SSWB、SWB、FB)に適用されることが分かるであろう。
5.5 エンコーダでのスペクトル量子化
ここでは、スペクトル量子化ツール34について説明する。TNSフィルタリング(
Figure 0007003253000224
)後のMDCTまたはMDSTスペクトルは、不感帯および均一閾値スカラー量子化を使用して量子化され、量子化されたMDCTまたはMDSTスペクトル
Figure 0007003253000225
は、算術符号化を使用して符号化される。グローバル利得
Figure 0007003253000226
は、量子化器のステップサイズを制御する。このグローバル利得は7ビットで量子化され、量子化されたグローバル利得インデックス
Figure 0007003253000227
は、例えば0~127の整数になる。グローバル利得インデックスは、量子化されたMDCTまたはMDSTスペクトルを符号化するために必要なビット数が、利用可能なビットバジェットにできるだけ近くなるように選択できる。
一例では、スペクトルをコーディングするために利用可能なビット数は、
Figure 0007003253000228
によって与えられ、
Figure 0007003253000229
は元の情報信号に対して1つのTDフレームで使用可能なビット数であり、
Figure 0007003253000230
は表1によって提供され、
Figure 0007003253000231
はTNS(現在のフレームでTNSによって消費されるビットの総数)によって提供され、
Figure 0007003253000232
はLTPF 38b(LTPFによって消費されるビット数)に関連しており、例えば、
Figure 0007003253000233

Figure 0007003253000234
および
Figure 0007003253000235
である。実施例では、保護ビット(例えば、巡回冗長コード、CRC、ビット)も考慮に入れることができる。
オフセットは最初に
Figure 0007003253000236
を使用して計算することができ、
Figure 0007003253000237
は前のフレームの
Figure 0007003253000238
の値、
Figure 0007003253000239
は前のフレームの
Figure 0007003253000240
の値、
Figure 0007003253000241
は前のフレームの
Figure 0007003253000242
の値である。
このオフセットを使用して、スペクトルのコーディングに利用可能なビット数を調整できる。
Figure 0007003253000243
次に、量子化されたMDCTまたはMDSTスペクトルを符号化するために必要なビット数が、利用可能なビットバジェットにできるだけ近くなるように、グローバル利得インデックスを推定できる。この推定は、量子化されたスペクトルを符号化するために必要なビット数を大まかに概算する、複雑度の低い二分探索に基づいている。アルゴリズムは次のように説明できる
Figure 0007003253000244
ここでE[k]は、
Figure 0007003253000245
で与えられる4つのMDCTまたはMDST係数のブロックのエネルギー(dB)である。
上記のグローバル利得インデックスは、最初に以下を使用して非量子化される。
Figure 0007003253000246
次にスペクトル
Figure 0007003253000247
は、例えば
Figure 0007003253000248
を使用して量子化できる。
量子化されたMDCTまたはMDST(または、いずれかの、FD)スペクトル
Figure 0007003253000249
を符号化するために必要なビット数
Figure 0007003253000250
は、以下のアルゴリズムを使用して正確に推定できる。
ビットレートフラグが、例えば次のように最初に計算される
Figure 0007003253000251
次に、最後のゼロ化されていない2タプルのインデックスが、次のように得られる
Figure 0007003253000252
次に、ビット数
Figure 0007003253000253
が次のように計算される
Figure 0007003253000254
ここで、ac_lookupおよびac_bitsは、事前定義されている表である。
ビット数
Figure 0007003253000255
は、利用可能なビットバジェット
Figure 0007003253000256
と比較できる。それらが互いに離れている場合、量子化されたグローバル利得インデックス
Figure 0007003253000257
が調整され、スペクトルが再量子化される。量子化されたグローバル利得インデックス
Figure 0007003253000258
を調整するために使用される手順を以下に示す
Figure 0007003253000259
上記から分かるように、スペクトル量子化はコントローラ39によって制御されず、特定の帯域に制限はない。
5.6 エントロピーコーディング
符号化されたデータのすべてまたは一部(TNSデータ、LTPFデータ、グローバル利得、量子化スペクトル…)は、例えば、任意のアルゴリズムによる圧縮によって、エントロピーコーディングできる。
このデータの一部は、ビットストリームの最後から開始して逆方向に直接ビットストリームに入れられる純粋なビットで構成することができる。
残りのデータは、ビットストリームの先頭から開始する、算術符号化を使用して符号化できる。
上記の2つのデータフィールドは、ビットストリームの読み取り/書き込みの開始点と方向に関して交換できる。
疑似コードの例は次のとおりである
Figure 0007003253000260
5.7 エンコーダでのノイズ推定
ノイズ推定ツール36(ノイズレベル推定器)は、デコーダ側でのノイズフィリングを制御することができる。エンコーダ側では、ノイズレベルパラメータを推定、量子化、送信、またはビットストリームに記憶できる。
ノイズレベルは、ゼロに量子化された、つまり
Figure 0007003253000261
であるスペクトル係数に基づいて推定することができる。関連するスペクトル係数のインデックスは、
Figure 0007003253000262
によって与えられ、ここで
Figure 0007003253000263
は、ステップS62で検出された帯域幅および/または例えば以下の表で定義されている帯域幅検出器およびコントローラ39によって検出された帯域幅に依存し得る
Figure 0007003253000264
識別されたインデックスについて、欠落係数の平均レベルは、例えば、TNSフィルタリング(
Figure 0007003253000265
後のスペクトルに基づいて推定され、グローバル利得によって正規化される。
Figure 0007003253000266
最終的なノイズレベルは、8つのステップに量子化される。
Figure 0007003253000267
したがって、ノイズレベル推定ツール36は、例えば帯域幅情報39aに基づいて、コントローラ39によって制御され得る。
例えば、表3の電子バージョンは記憶ユニットに記憶されてもよく、それにより、特定の帯域幅についての帯域幅選択が得られたときに、パラメータ
Figure 0007003253000268
が容易に導出される。
5.8 デコーダでのエントロピー復号
符号化されたすべてのデータ(TNSデータ、LTPFデータ、グローバル利得、量子化スペクトル…)は、例えばデコーダツール42を使用して、デコーダ側でエントロピー復号できる。したがって、エンコーダによって提供されるビットストリームは、任意のアルゴリズムに従って解凍される。
5.9 デコーダでのノイズフィリング
ここでは、デコーダノイズフィリングツール43について説明する。デコーダノイズフィリングツール43は、とりわけ、デコーダ帯域幅コントローラ49によって(および/または、表1の制御データフィールドNbwおよび/またはPwbなどの、ビットストリームに符号化された情報39aを介してコントローラ39によって)制御され得る。
関連するスペクトル係数のインデックスは、
Figure 0007003253000269
によって与えられ、ここで
Figure 0007003253000270
は表3で与えられる。
ノイズフィリングは、エンコーダから得た送信ノイズ係数
Figure 0007003253000271
を使用して、識別された関連するスペクトルライン
Figure 0007003253000272
に適用できる。
Figure 0007003253000273
は、エンコーダ側のノイズ推定器で計算することができる。
Figure 0007003253000274
は、ビットストリームのサイド情報としてコーディングされた3ビット値であってもよい。
Figure 0007003253000275
は、例えば、次の手順を使用して得ることができる
Figure 0007003253000276
手順は次のとおりである
Figure 0007003253000277
nf_seedの取得方法は、例えば、次の疑似コードで記述できる
Figure 0007003253000278
上記から分かるように、デコーダノイズフィルタツール43は、パラメータ
Figure 0007003253000279
を利用することができる。
一部の例では、パラメータ
Figure 0007003253000280
は、ビットストリームの値として明示的に得られる。実施例では、パラメータ
Figure 0007003253000281
は、エンコーダによって符号化されたビットストリームの制御フィールド内の帯域幅情報39a(Pbw)に基づいて、コントローラ49によって得られる。デコーダは、非一時的記憶ユニットに記憶された表3の電子バージョンを有することができる。したがって、ビットストリームの長さが短縮される。
したがって、帯域幅コントローラ49(および/または帯域幅検出器および制御データ39aを介してデコーダのコントローラ39)は、デコーダノイズフィリングツール43を制御することができる。
5.9 デコーダでのグローバル利得
ノイズフィリングが適用された後、例えば、
Figure 0007003253000282
のような式を使用して、スペクトルにグローバル利得を適用でき、
ここで、
Figure 0007003253000283
は、例えばエンコーダから得たグローバル利得インデックスである。
5.10 デコーダでのTNS
ここでは、TNSデコーダツール45について説明する。量子化された反射係数は、TNSフィルタ
Figure 0007003253000284
ごとに、
Figure 0007003253000285
を使用して取得でき、
Figure 0007003253000286
は、量子化器の出力インデックスである。
次に、MDCTまたはMDSTスペクトル
Figure 0007003253000287
(例えば、グローバル利得ツールによって生成されたもの)は
Figure 0007003253000288
のような手順を使用してフィルタリングでき、
Figure 0007003253000289
は、TNSデコーダの出力である。
エンコーダによって提供される制御情報に基づいて、パラメータnum_tns_filters、start_freq、stop_freqが提供され得る。
一部の例では、num_tns_filters、start_freq、および/またはstop_freqは、ビットストリームで明示的に提供されない。実施例では、num_tns_filters、start_freq、stop_freqは、エンコーダによって符号化されたビットストリームの制御フィールドのNbw値に基づいて導出される。例えば、デコーダは、そこに記憶された表2(または少なくともその一部)の電子バージョンを有し得る。したがって、ビットストリームの長さが短縮される。
したがって、TNSデコーダツール45は、エンコーダ側で検出された帯域幅によって制御され得る。
5.11.1 デコーダでのMDCTまたはMDSTシェーピング
ここでは、MDCTまたはMDSTシェーピングツール46について説明する。LPCまたはSNSシェーピングは、MDCTまたはMDSTスペクトルに変換された、復号されたLPフィルタ係数から計算された利得係数を適用することにより、MDCT(FD)ドメインで実行できる。
Figure 0007003253000290
LPCシェーピング利得を計算するには、まず復号されたLPフィルタ係数
Figure 0007003253000291
を、奇数DFTを使用して周波数ドメインに変換する。
Figure 0007003253000292
次に、LPCシェーピング利得
Figure 0007003253000293
は、
Figure 0007003253000294
の逆絶対値として計算される。
Figure 0007003253000295
LPCシェーピング利得
Figure 0007003253000296
は、例えば次のコードで概説されるように、シェーピングされたスペクトル
Figure 0007003253000297
を生成するために、概説されているように各帯域のTNSフィルタ処理されたMDCT周波数ラインに個別に適用できる
Figure 0007003253000298
上記から分かるように、MDCTまたはMDSTシェーピングツール46は、特定の帯域幅に制限される必要はなく、したがって、コントローラ49または39によって制御される必要はない。
5.11.2 デコーダでのSNS
以下のステップは、ノイズシェーパデコーダ、SNS、ツール46aで実行され得る。
・ステップ1:量子化
エンコーダステップ8(セクション5.3.2を参照)で生成されたベクトル量子化インデックスは、ビットストリームから読み取られ、量子化されたスケール係数
Figure 0007003253000299
を復号するために使用される。
・ステップ2:補間
セクション5.3.2のステップ9と同じである。
・ステップ3:スペクトルシェーピング
SNSスケール係数
Figure 0007003253000300
は、以下のコードで概説されているように、復号されたスペクトル
Figure 0007003253000301
を生成するために、各帯域の量子化されたMDCT(またはMDST、または別の変換)周波数ラインに個別に適用される。
Figure 0007003253000302
5.12 デコーダでのMDCTまたはMDST合成
ここでは、逆MDCTまたはMDSTツール48aについて説明する(ラップ変換など、他の変換に基づく他のツールを使用できる)。
再構築されたスペクトル
Figure 0007003253000303
は、次の手順で時間領域に変換できる。
1.時間領域エイリアスバッファ
Figure 0007003253000304
Figure 0007003253000305
の生成
2.時間エイリアスバッファのウィンドウ処理
Figure 0007003253000306
3.オーバーラップ加算演算を実行して、時間サンプル
Figure 0007003253000307
を得る
Figure 0007003253000308
Figure 0007003253000309
Figure 0007003253000310
ここで最初のフレームを復号する前に、
Figure 0007003253000311
が0に初期化される。
ステップ1を参照すると、MDSTは、例えば
Figure 0007003253000312
を有するためにcos関数をサイン関数と交換することで実行できる。
上記から分かるように、逆MDCTまたはMDSTツール48aは、エンコーダ側で決定された帯域幅に基づいて制御されない。
6.その他の例
図8aは、エンコーダ装置30または30aの少なくともいくつかのツールを実装し、および/または方法60および/または70の少なくともいくつかのステップを実行することができる装置110を示す。装置110は、プロセッサ111と、プロセッサ111によって実行されたときにプロセッサ111にエンコーダ装置30または30aのTDおよび/またはFDツールの少なくとも1つを実装させる命令を記憶する非一時的メモリユニット112とを含むことができる。特に、命令は、FDツール(例えば、TNSおよび/またはノイズフィリング)のサブグループおよびサブグループにない他のFDツール(例えば、31、32、34、35)を実装することができる。命令はまた、プロセッサ111によって実行されたときに、FDツールのサブグループ内のツール(例えば、TNSおよび/またはノイズフィリング)によって処理される信号の帯域幅が、サブグループにない他のFDツール(例えば、31、32、34、35)によって処理される信号の帯域幅と異なるように帯域幅の選択を実行する命令を含み得る。命令は、異なる帯域幅に関連するエネルギー検出に基づいて帯域幅選択を制御するようなものであり得る。命令はまた、プロセッサ111によって実行されたときに、デコーダを制御することを可能にし、特に、他のFDツールの帯域幅とは異なり得るFDツールのサブグループ(例えば、43、45)の帯域幅を制御することを可能にする命令を含み得る。エンコーダでサブグループ用に選択された帯域幅は、デコーダでサブグループ用に選択されたものと同じであってもよい。非一時的メモリユニット112は、表1、2、および/または3の電子バージョンの少なくとも一部などの他のデータも含み得る。装置110は、例えば、情報信号(例えば、オーディオ信号)から得られたビットストリームを記憶するための記憶スペース118を含み得る。装置110は、例えば、Bluetoothなどの特定のプロトコルを使用して、例えば無線でデータを送信するための出力ユニット117を含み得る。例えば、装置110は、非一時的メモリユニット112に記憶された命令を実行することによって、デコーダに送信されるビットストリームを定義することができる。装置110は、例えば、Bluetoothなどの特定のプロトコルを使用して、例えば無線でデータを得るための入力ユニット116も含み得る。
図8bは、デコーダ装置40または40aの少なくともいくつかのツールを実装することができる装置120を示す。装置120は、プロセッサ121と、プロセッサ121によって実行されたときにプロセッサ121にデコーダ装置40または40aのTDおよび/またはFDツールの少なくとも1つを実装させる命令を記憶する非一時的メモリユニット122とを含むことができる。特に、命令は、FDツール(例えば、TNSおよび/またはノイズフィリング)のサブグループおよびサブグループにない他のFDツール(例えば、44、46など)を実装することができる。命令はまた、プロセッサ121によって実行されたときに、FDツールのサブグループ内のツール(例えば、TNSおよび/またはノイズフィリング)によって処理される信号の帯域幅が、サブグループにない他のFDツール(例えば、44、46など)によって処理される信号の帯域幅と異なるように帯域幅の選択を実行する命令を含み得る。命令は、例えば、エンコーダによって実行されるような、異なる帯域幅に関連するエネルギー検出に基づいて帯域幅選択を制御するようなものであり得る。命令はまた、プロセッサ121によって実行されたときに、エンコーダとして動作することを可能にし、特に、他のFDツールの帯域幅とは異なり得るFDツールのサブグループ(例えば、43、45)の帯域幅を制御することを可能にする命令を含み得る。エンコーダでサブグループ用に選択された帯域幅は、デコーダでサブグループ用に選択されたものと同じであってもよい。非一時的メモリユニット122は、表1、2、および/または3の電子バージョンの少なくとも一部などの他のデータも含み得る。装置120は、例えば、情報信号(例えば、オーディオ信号)から得られたビットストリームを記憶するための記憶スペース128を含み得る。装置120は、例えば、Bluetoothなどの特定のプロトコルを使用して、例えば無線でデータを送信するための出力ユニット127を含み得る。装置120は、例えば、Bluetoothなどの特定のプロトコルを使用して、例えば無線でデータを得るための入力ユニット126も含み得る。例えば、装置120は、非一時的メモリユニット122に記憶された命令を実行することによって、デコーダによって送信されたビットストリームを得ることができる。
実施例では、装置110および120は、同じデバイスであり得る。実施例では、異なる装置110および120の構成がシステムを形成する。
特定の実装要件に応じて、実施例はハードウェアで実装できる。実装は、フロッピーディスク、デジタル多用途ディスク(DVD)、ブルーレイディスク、コンパクトディスク(CD)、読み取り専用メモリ(ROM)、プログラム可能読み取り専用メモリ(PROM)、消去可能プログラム可能読み取り専用メモリ(EPROM)、電気的消去可能プログラム可能読み取り専用メモリ(EEPROM)、またはフラッシュメモリなど、電子的に読み取り可能な制御信号が記憶され、それぞれの方法が実行されるようにプログラム可能コンピュータシステムと協働する(または協働することができる)デジタル記憶媒体を使用して実行できる。したがって、デジタル記憶媒体はコンピュータで読み取り可能であってもよい。
一般に、実施例は、プログラム命令を含むコンピュータプログラム製品として実装されてもよく、プログラム命令は、コンピュータプログラム製品がコンピュータ上で実行されるときに、方法の1つを実行するように動作する。プログラム命令は、例えば、機械可読媒体に記憶されてもよい。
他の実施例は、機械可読キャリアに記憶された、本明細書に記載の方法の1つを実行するためのコンピュータプログラムを含む。つまり、本発明の方法の実施例はしたがって、コンピュータプログラムがコンピュータ上で実行されるときに、本明細書に記載の方法の1つを実行するためのプログラム命令を有するコンピュータプログラムである。
したがって、本発明の方法のさらなる実施例は、本明細書に記載の方法の1つを実行するためのコンピュータプログラムを含み、それが記録されたデータキャリア媒体(またはデジタル記憶媒体、またはコンピュータ可読媒体)である。データキャリア媒体、デジタル記憶媒体、または記録された媒体は、無形で一時的な信号ではなく、有形および/または非一時的なものである。
さらなる実施例は、本明細書に記載の方法の1つを実行する処理ユニット、例えばコンピュータ、またはプログラム可能な論理デバイスを含む。
さらなる実施例は、本明細書に記載の方法の1つを実行するためのコンピュータプログラムがインストールされたコンピュータを含む。
さらなる実施例は、本明細書に記載の方法の1つを実行するためのコンピュータプログラムを受信側に(例えば、電子的または光学的に)転送する装置またはシステムを含む。受信側は、例えば、コンピュータ、モバイルデバイス、メモリデバイスなどであってもよい。装置またはシステムは、例えば、コンピュータプログラムを受信側に転送するためのファイルサーバを含んでもよい。
一部の実施例では、プログラム可能な論理デバイス(例えば、フィールド・プログラマブル・ゲート・アレイ)を使用して、本明細書に記載の方法の機能の一部またはすべてを実行することができる。一部の実施例では、フィールド・プログラマブル・ゲート・アレイは、本明細書に記載の方法の1つを実行するためにマイクロプロセッサと協働してもよい。一般に、方法は、任意の適切なハードウェア装置によって実行され得る。
上記の例は、上で説明した原理を例示するものである。本明細書に記載の配置および詳細の修正および変更は、明らかであることを理解されたい。したがって、本明細書の実施例の説明として提示される特定の詳細によってではなく、差し迫った特許請求の範囲によって制限されることが意図されている。

Claims (32)

  1. エンコーダ装置であって、
    情報信号を符号化するための複数の周波数領域エンコーダツールであって、前記情報信号は複数のフレームを表すエンコーダツール、および
    前記複数の周波数領域エンコーダツールの少なくともサブグループ(33、36)の帯域幅を選択するように構成されたエンコーダ帯域幅検出器およびコントローラ(39)を含み、前記サブグループ(33、36)は、前記サブグループ(33、36)の前記周波数領域エンコーダツールの少なくとも1つが、前記サブグループ(33、36)にない前記周波数領域エンコーダツールの少なくとも1つとは異なる帯域幅を有するように、情報信号特性に基づいて、前記複数の周波数領域エンコーダよりも少ない周波数領域エンコーダツールを含む、エンコーダ装置。
  2. 前記サブグループの少なくとも1つの周波数領域エンコーダツールは、一時的ノイズシェーピング、TNS、ツール(33)および/またはノイズレベル推定ツール(36)である、
    請求項1に記載のエンコーダ装置。
  3. 前記サブグループ(33、36)にない少なくとも1つの周波数領域エンコーダツールは、線形予測コーディング、LPC、ベースのスペクトルシェーパ、スペクトルノイズシェーピング、SNS、ツール、スペクトル量子化器、および残差コーダの少なくとも1つから選択される、
    請求項1または2に記載のエンコーダ装置。
  4. 前記エンコーダ帯域幅検出器およびコントローラ(39)は、前記サブグループにない前記周波数領域エンコーダツールの少なくとも1つに共通する少なくとも第1の帯域幅と、前記サブグループにない前記周波数領域エンコーダツールの前記少なくとも1つの前記帯域幅とは異なる第2の帯域幅との間で、前記サブグループ(33、36)の前記少なくとも1つの周波数領域エンコーダツールの前記帯域幅を選択するように構成される、
    請求項1から3のいずれか一項に記載のエンコーダ装置。
  5. 前記エンコーダ帯域幅検出器およびコントローラ(39)は、前記情報信号に関する少なくとも1つのエネルギー推定に基づいて、前記複数の周波数領域エンコーダツールの前記少なくとも1つの前記帯域幅を選択するように構成される、
    請求項1から4のいずれか一項に記載のエンコーダ装置。
  6. 前記エンコーダ帯域幅検出器およびコントローラ(39)は、前記複数の周波数領域エンコーダツールの前記少なくとも1つの前記帯域幅を制御するために、前記情報信号の帯域幅に関連する少なくとも1つのエネルギー推定をそれぞれの閾値と比較するように構成される、
    請求項1から5のいずれか一項に記載のエンコーダ装置。
  7. 前記サブグループ(33、36)の前記複数の周波数領域エンコーダツールの前記少なくとも1つは、前記エンコーダ帯域幅検出器およびコントローラ(39)によって選択された前記帯域幅内でTNS入力信号を自己相関させるように構成されたTNSを含む、
    請求項1から6のいずれか一項に記載のエンコーダ装置。
  8. 前記サブグループにない前記周波数領域エンコーダツールの前記少なくとも1つは、全帯域幅で動作するように構成される、請求項1から7のいずれか一項に記載のエンコーダ装置。
  9. 前記エンコーダ帯域幅検出器およびコントローラ(39)は、前記サブグループにない前記周波数領域エンコーダツールの前記少なくとも1つが動作するように構成されている前記全帯域幅内にある少なくとも1つの帯域幅を選択するように構成される、請求項に記載のエンコーダ装置。
  10. 前記複数の周波数領域エンコーダツールの前記残りの周波数領域エンコーダツールの前記少なくとも1つは、前記エンコーダ帯域幅検出器およびコントローラ(39)によって選択された前記帯域幅に関してオープンチェーンで動作するように構成される、請求項1から9のいずれか一項に記載のエンコーダ装置。
  11. 前記エンコーダ帯域幅検出器およびコントローラ(39)は、有限数の帯域幅の中から、および/または事前定義された帯域幅のセットの中から、帯域幅を選択するように構成される、
    請求項1から10のいずれか一項に記載のエンコーダ装置。
  12. 前記エンコーダ帯域幅検出器およびコントローラは(39)、以下の帯域幅4KHz、8KHz、12KHz、16KHz、および24KHz、および/またはNB、WB、SSWB、SWB、FBの少なくとも1つまたは組み合わせから選択を実行するように構成される、
    請求項1から11のいずれか一項に記載のエンコーダ装置。
  13. 前記エンコーダ帯域幅検出器およびコントローラ(39)は、デコーダへの前記帯域幅のグナリングを制御するように構成される、
    請求項1から12のいずれか一項に記載のエンコーダ装置。
  14. 前記選択された帯域幅に関する情報を含む制御データフィールドを符号化するようにさらに構成される、
    請求項1から13のいずれか一項に記載のエンコーダ装置。
  15. NB帯域幅に対応する0データビット、
    NB、WB帯域幅に対応する1データビット、
    NB、WB、SSWB帯域幅に対応する2データビット、
    NB、WB、SSWB、SWB帯域幅に対応する2データビット、
    NB、WB、SSWB、SWB、FB帯域幅に対応する3データビット、
    を含む制御データフィールドを符号化するようにさらに構成される、
    請求項1から14のいずれか一項に記載のエンコーダ装置。
  16. 前記少なくとも1つのエネルギー推定は、
    Figure 0007003253000313
    のように実行され、
    ここで、
    Figure 0007003253000314
    DCTまたはMDSTまたは周波数領域係数であり、
    Figure 0007003253000315
    は帯域の数、
    Figure 0007003253000316
    は前記帯域に関連付けられたンデックスである、請求項1から15のいずれか一項の可能な組み合わせにおける請求項5または6に記載のエンコーダ装置。
  17. ィルタリング動作を実行するように構成されたTNSツール(33)をさらに含み、

    Figure 0007003253000317
    について
    Figure 0007003253000318
    であり、ここで
    Figure 0007003253000319
    および
    Figure 0007003253000320
    であり、ここで
    Figure 0007003253000321
    は前記MDCTまたはMDSTまたは周波数領域係数であり、
    Figure 0007003253000322
    および
    Figure 0007003253000323
    は、前記エンコーダ帯域幅検出器およびコントローラ(39)によって検出された前記帯域幅に関連付けられている、請求項1から16のいずれか一項に記載のエンコーダ装置。
  18. Figure 0007003253000324
    を使用してノイズレベルを推定するように構成されたノイズ推定器(36)をさらに含み、
    ここで、ggはローバル利得、
    Figure 0007003253000325
    は前記ノイズレベルが推定されるペクトルラインの別を指し、
    Figure 0007003253000326
    号を示す、請求項1から17のいずれか一項に記載のエンコーダ装置。
  19. ビットストリームに符号化された情報信号を復号するための複数の周波数領域デコーダツール(43~48a)を含むデコーダ装置(40、40a)であって、
    前記周波数領域デコーダツールは
    少なくとも1つの周波数領域デコーダツール(43、45)を含むサブグループ、
    少なくとも1つの周波数領域デコーダツール(44、46、48a)を含む残りの周波数領域デコーダツール、に分割されており、
    ここで、前記デコーダ装置(40、40a)は、前記サブグループ(43、45)の前記複数のデコーダツールの少なくとも1つが、前記複数のデコーダツール(44、46、48a)の前記残りの周波数領域デコーダツールの少なくとも1つとは異なる帯域幅で信号処理するように構成される、デコーダ装置(40、40a)。
  20. 域幅情報に基づいて前記帯域幅を選択するように構成された帯域幅コントローラ(49)をさらに含む、
    請求項19に記載のデコーダ装置。
  21. 前記サブグループは、デコーダノイズフィリングツール(43)および/または一時的ノイズシェーピング、TNS、デコーダ(45)の少なくとも1つを含む、
    請求項19または20に記載のデコーダ装置。
  22. 前記残りの周波数領域デコーダツールの前記少なくとも1つは、デコーダ線形予測コーディング、LPC、ツール、スペクトルノイズシェーピング、SNS、ツール、デコーダグローバル利得ツール、MDCTまたはMDSTシェーピングツール、または別の変換に基づく別のシェーピングツールの少なくとも1つである、
    請求項19から21のいずれか一項に記載のデコーダ装置。
  23. 前記サブグループ内の前記複数のデコーダツールの前記少なくとも1つの前記帯域幅を、
    前記残りの周波数領域デコーダツールの少なくとも1つに共通の少なくとも第1の帯域幅、および
    前記第1の帯域幅とは異なる少なくとも第2の帯域幅の間で制御するように構成される、
    請求項19から22のいずれか一項に記載のデコーダ装置。
  24. 前記残りの周波数領域デコーダツールの前記少なくとも1つは、全帯域幅で動作するように構成される、請求項19から23のいずれか一項に記載のデコーダ装置。
  25. 前記残りの周波数領域デコーダツールの前記少なくとも1つは、前記選択された帯域幅に関してオープンチェーンで動作するように構成される、請求項20に記載のデコーダ装置。
  26. 有限数の帯域幅の中から、および/または事前定義された帯域幅のセットの中から、帯域幅を選択するようにさらに構成される、
    請求項19から25のいずれか一項に記載のデコーダ。
  27. 8KHz、16KHz、24KHz、32KHz、および48KHz、および/またはNB、WB、SSWB、SWB、FBの少なくとも1つまたは組み合わせから選択を実行するようにさらに構成される、
    請求項19から26のいずれか一項に記載のデコーダ。
  28. Figure 0007003253000327
    によって与えられるインデックスを使用してノイズレベルを適用するように構成されたノイズフィリングツール(43)をさらに含み、ここで
    Figure 0007003253000328
    は、前記ビットストリーム内の帯域幅情報に基づいて得られる、請求項19から27のいずれか一項に記載のデコーダ。
  29. Figure 0007003253000329
    Figure 0007003253000330
    Figure 0007003253000331
    Figure 0007003253000332
    Figure 0007003253000333
    Figure 0007003253000334
    Figure 0007003253000335
    Figure 0007003253000336
    を実行するように構成されたTNSデコーダ(45)をさらに含み、
    ここで、
    Figure 0007003253000337
    は前記TNSデコーダの力であり、
    Figure 0007003253000338
    は前記TNSデコーダの入力であり、
    Figure 0007003253000339

    Figure 0007003253000340

    Figure 0007003253000341
    は前記ビットストリームの帯域幅情報(39a)に基づいて得られる、請求項19から28のいずれか一項に記載のデコーダ。
  30. エンコーダ装置およびデコーダ装置を含むシステムであって、前記エンコーダ装置は請求項1から18のいずれかによる、および/または前記デコーダ装置は請求項19から29のいずれかによる、システム。
  31. なくとも複数の周波数領域動作に従って情報信号を符号化するための方法であってもよく、
    周波数領域動作のサブグループのための帯域幅を選択するステップ、
    周波数領域動作の前記サブグループのための前記帯域幅で第1の信号処理動作を実行するステップ、
    前記サブグループにない周波数領域動作のための異なる帯域幅で第2の信号処理動作を実行するステップを含む、方法。
  32. 情報信号および制御データ(39a)を用いてビットストリームを復号するための方法であって、前記方法は、前記周波数領域における複数の信号処理動作を含み、
    前記制御データ(39a)に基づいて周波数領域動作のサブグループのための帯域幅を選択するステップ、
    周波数領域動作の前記サブグループのための前記帯域幅で第1の信号処理動作を実行するステップ、
    前記サブグループにない周波数領域動作のための異なる帯域幅で第2の信号処理動作を実行するステップを含む、方法。
JP2020524579A 2017-11-10 2018-11-06 エンコーダおよび/またはデコーダの帯域幅の制御 Active JP7003253B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP17201082.9 2017-11-10
EP17201082.9A EP3483882A1 (en) 2017-11-10 2017-11-10 Controlling bandwidth in encoders and/or decoders
PCT/EP2018/080335 WO2019091977A1 (en) 2017-11-10 2018-11-06 Controlling bandwidth in encoders and/or decoders

Publications (2)

Publication Number Publication Date
JP2021502591A JP2021502591A (ja) 2021-01-28
JP7003253B2 true JP7003253B2 (ja) 2022-01-20

Family

ID=60301903

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020524579A Active JP7003253B2 (ja) 2017-11-10 2018-11-06 エンコーダおよび/またはデコーダの帯域幅の制御

Country Status (18)

Country Link
US (1) US11462226B2 (ja)
EP (2) EP3483882A1 (ja)
JP (1) JP7003253B2 (ja)
KR (1) KR102426033B1 (ja)
CN (1) CN111344784B (ja)
AR (1) AR113479A1 (ja)
AU (1) AU2018363698B2 (ja)
BR (1) BR112020009034A2 (ja)
CA (1) CA3080907C (ja)
ES (1) ES2898281T3 (ja)
MX (1) MX2020004779A (ja)
PL (1) PL3707713T3 (ja)
PT (1) PT3707713T (ja)
RU (1) RU2752520C1 (ja)
SG (1) SG11202004171WA (ja)
TW (1) TWI691954B (ja)
WO (1) WO2019091977A1 (ja)
ZA (1) ZA202002082B (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112530444B (zh) * 2019-09-18 2023-10-03 华为技术有限公司 音频编码方法和装置
CN113643713B (zh) * 2021-10-13 2021-12-24 北京百瑞互联技术有限公司 一种蓝牙音频编码方法、装置及存储介质

Family Cites Families (183)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3639753A1 (de) 1986-11-21 1988-06-01 Inst Rundfunktechnik Gmbh Verfahren zum uebertragen digitalisierter tonsignale
US5012517A (en) 1989-04-18 1991-04-30 Pacific Communication Science, Inc. Adaptive transform coder having long term predictor
US5233660A (en) 1991-09-10 1993-08-03 At&T Bell Laboratories Method and apparatus for low-delay celp speech coding and decoding
JPH05281996A (ja) 1992-03-31 1993-10-29 Sony Corp ピッチ抽出装置
IT1270438B (it) 1993-06-10 1997-05-05 Sip Procedimento e dispositivo per la determinazione del periodo del tono fondamentale e la classificazione del segnale vocale in codificatori numerici della voce
US5581653A (en) 1993-08-31 1996-12-03 Dolby Laboratories Licensing Corporation Low bit-rate high-resolution spectral envelope coding for audio encoder and decoder
JP3402748B2 (ja) 1994-05-23 2003-05-06 三洋電機株式会社 音声信号のピッチ周期抽出装置
JPH0811644A (ja) 1994-06-27 1996-01-16 Nissan Motor Co Ltd ルーフモール取付構造
US6167093A (en) 1994-08-16 2000-12-26 Sony Corporation Method and apparatus for encoding the information, method and apparatus for decoding the information and method for information transmission
DE69619284T3 (de) 1995-03-13 2006-04-27 Matsushita Electric Industrial Co., Ltd., Kadoma Vorrichtung zur Erweiterung der Sprachbandbreite
US5781888A (en) 1996-01-16 1998-07-14 Lucent Technologies Inc. Perceptual noise shaping in the time domain via LPC prediction in the frequency domain
WO1997027578A1 (en) 1996-01-26 1997-07-31 Motorola Inc. Very low bit rate time domain speech analyzer for voice messaging
US5812971A (en) 1996-03-22 1998-09-22 Lucent Technologies Inc. Enhanced joint stereo coding method using temporal envelope shaping
JPH1091194A (ja) 1996-09-18 1998-04-10 Sony Corp 音声復号化方法及び装置
US6570991B1 (en) 1996-12-18 2003-05-27 Interval Research Corporation Multi-feature speech/music discrimination system
KR100261253B1 (ko) 1997-04-02 2000-07-01 윤종용 비트율 조절이 가능한 오디오 부호화/복호화 방법및 장치
GB2326572A (en) 1997-06-19 1998-12-23 Softsound Limited Low bit rate audio coder and decoder
AU9404098A (en) 1997-09-23 1999-04-12 Voxware, Inc. Scalable and embedded codec for speech and audio signals
JP3344962B2 (ja) 1998-03-11 2002-11-18 松下電器産業株式会社 オーディオ信号符号化装置、及びオーディオ信号復号化装置
US6507814B1 (en) 1998-08-24 2003-01-14 Conexant Systems, Inc. Pitch determination using speech classification and prior pitch estimation
US7272556B1 (en) 1998-09-23 2007-09-18 Lucent Technologies Inc. Scalable and embedded codec for speech and audio signals
US7302396B1 (en) 1999-04-27 2007-11-27 Realnetworks, Inc. System and method for cross-fading between audio streams
US6735561B1 (en) 2000-03-29 2004-05-11 At&T Corp. Effective deployment of temporal noise shaping (TNS) filters
US7099830B1 (en) 2000-03-29 2006-08-29 At&T Corp. Effective deployment of temporal noise shaping (TNS) filters
EP1139665A1 (en) 2000-03-29 2001-10-04 Deutsche Thomson-Brandt Gmbh Method and apparatus for changing the output delay of audio or video data encoding
US6665638B1 (en) 2000-04-17 2003-12-16 At&T Corp. Adaptive short-term post-filters for speech coders
US7395209B1 (en) 2000-05-12 2008-07-01 Cirrus Logic, Inc. Fixed point audio decoding system and method
WO2002101717A2 (en) 2001-06-11 2002-12-19 Ivl Technologies Ltd. Pitch candidate selection method for multi-channel pitch detectors
US7353168B2 (en) 2001-10-03 2008-04-01 Broadcom Corporation Method and apparatus to eliminate discontinuities in adaptively filtered signals
US6785645B2 (en) 2001-11-29 2004-08-31 Microsoft Corporation Real-time speech and music classifier
US20030187663A1 (en) * 2002-03-28 2003-10-02 Truman Michael Mead Broadband frequency translation for high frequency regeneration
US7447631B2 (en) 2002-06-17 2008-11-04 Dolby Laboratories Licensing Corporation Audio coding system using spectral hole filling
US7433824B2 (en) 2002-09-04 2008-10-07 Microsoft Corporation Entropy coding by adapting coding between level and run-length/level modes
US7502743B2 (en) 2002-09-04 2009-03-10 Microsoft Corporation Multi-channel audio encoding and decoding with multi-channel transform selection
JP4287637B2 (ja) 2002-10-17 2009-07-01 パナソニック株式会社 音声符号化装置、音声符号化方法及びプログラム
KR101049751B1 (ko) 2003-02-11 2011-07-19 코닌클리케 필립스 일렉트로닉스 엔.브이. 오디오 코딩
KR20030031936A (ko) 2003-02-13 2003-04-23 배명진 피치변경법을 이용한 단일 음성 다중 목소리 합성기
US20040162866A1 (en) 2003-02-19 2004-08-19 Malvar Henrique S. System and method for producing fast modulated complex lapped transforms
ATE503246T1 (de) 2003-06-17 2011-04-15 Panasonic Corp Empfangsvorrichtung, sendevorrichtung und übertragungssystem
KR101058062B1 (ko) 2003-06-30 2011-08-19 코닌클리케 필립스 일렉트로닉스 엔.브이. 잡음 부가에 의한 디코딩된 오디오의 품질 개선
US7620545B2 (en) 2003-07-08 2009-11-17 Industrial Technology Research Institute Scale factor based bit shifting in fine granularity scalability audio coding
KR100550003B1 (ko) 2003-07-11 2006-02-08 학교법인연세대학교 상호부호화기에서 개회로 피치 추정 방법 및 그 장치
WO2005027096A1 (en) 2003-09-15 2005-03-24 Zakrytoe Aktsionernoe Obschestvo Intel Method and apparatus for encoding audio
US7009533B1 (en) 2004-02-13 2006-03-07 Samplify Systems Llc Adaptive compression and decompression of bandlimited signals
KR20050087956A (ko) 2004-02-27 2005-09-01 삼성전자주식회사 무손실 오디오 부호화/복호화 방법 및 장치
DE102004009949B4 (de) 2004-03-01 2006-03-09 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Ermitteln eines Schätzwertes
WO2005086139A1 (en) 2004-03-01 2005-09-15 Dolby Laboratories Licensing Corporation Multichannel audio coding
DE102004009954B4 (de) 2004-03-01 2005-12-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Verarbeiten eines Multikanalsignals
JP4744438B2 (ja) 2004-03-05 2011-08-10 パナソニック株式会社 エラー隠蔽装置およびエラー隠蔽方法
US7392195B2 (en) 2004-03-25 2008-06-24 Dts, Inc. Lossless multi-channel audio codec
KR100956877B1 (ko) 2005-04-01 2010-05-11 콸콤 인코포레이티드 스펙트럼 엔벨로프 표현의 벡터 양자화를 위한 방법 및장치
US7539612B2 (en) 2005-07-15 2009-05-26 Microsoft Corporation Coding and decoding scale factor information
US7546240B2 (en) 2005-07-15 2009-06-09 Microsoft Corporation Coding with improved time resolution for selected segments via adaptive block transformation of a group of samples from a subband decomposition
KR20070037945A (ko) 2005-10-04 2007-04-09 삼성전자주식회사 오디오 신호의 부호화/복호화 방법 및 장치
US20070118361A1 (en) 2005-10-07 2007-05-24 Deepen Sinha Window apparatus and method
KR100888474B1 (ko) 2005-11-21 2009-03-12 삼성전자주식회사 멀티채널 오디오 신호의 부호화/복호화 장치 및 방법
US7805297B2 (en) 2005-11-23 2010-09-28 Broadcom Corporation Classification-based frame loss concealment for audio signals
US9123350B2 (en) 2005-12-14 2015-09-01 Panasonic Intellectual Property Management Co., Ltd. Method and system for extracting audio features from an encoded bitstream for audio classification
US8255207B2 (en) 2005-12-28 2012-08-28 Voiceage Corporation Method and device for efficient frame erasure concealment in speech codecs
US8345890B2 (en) 2006-01-05 2013-01-01 Audience, Inc. System and method for utilizing inter-microphone level differences for speech enhancement
CN101395661B (zh) 2006-03-07 2013-02-06 艾利森电话股份有限公司 音频编码和解码的方法和设备
US8150065B2 (en) 2006-05-25 2012-04-03 Audience, Inc. System and method for processing an audio signal
ATE447227T1 (de) 2006-05-30 2009-11-15 Koninkl Philips Electronics Nv Linear-prädiktive codierung eines audiosignals
CN1983909B (zh) 2006-06-08 2010-07-28 华为技术有限公司 一种丢帧隐藏装置和方法
US8015000B2 (en) 2006-08-03 2011-09-06 Broadcom Corporation Classification-based frame loss concealment for audio signals
EP2054882B1 (en) 2006-08-15 2011-01-19 Dolby Laboratories Licensing Corporation Arbitrary shaping of temporal noise envelope without side-information
FR2905510B1 (fr) 2006-09-01 2009-04-10 Voxler Soc Par Actions Simplif Procede d'analyse en temps reel de la voix pour le controle en temps reel d'un organe numerique et dispositif associe
CN101140759B (zh) * 2006-09-08 2010-05-12 华为技术有限公司 语音或音频信号的带宽扩展方法及系统
US7752038B2 (en) 2006-10-13 2010-07-06 Nokia Corporation Pitch lag estimation
DE102006049154B4 (de) 2006-10-18 2009-07-09 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Kodierung eines Informationssignals
KR101292771B1 (ko) 2006-11-24 2013-08-16 삼성전자주식회사 오디오 신호의 오류은폐방법 및 장치
JPWO2008072701A1 (ja) 2006-12-13 2010-04-02 パナソニック株式会社 ポストフィルタおよびフィルタリング方法
FR2912249A1 (fr) 2007-02-02 2008-08-08 France Telecom Codage/decodage perfectionnes de signaux audionumeriques.
JP4871894B2 (ja) * 2007-03-02 2012-02-08 パナソニック株式会社 符号化装置、復号装置、符号化方法および復号方法
CN101308658B (zh) * 2007-05-14 2011-04-27 深圳艾科创新微电子有限公司 一种基于片上系统的音频解码器及其解码方法
JP5618826B2 (ja) 2007-06-14 2014-11-05 ヴォイスエイジ・コーポレーション Itu.t勧告g.711と相互運用可能なpcmコーデックにおいてフレーム消失を補償する装置および方法
EP2015293A1 (en) 2007-06-14 2009-01-14 Deutsche Thomson OHG Method and apparatus for encoding and decoding an audio signal using adaptively switched temporal resolution in the spectral domain
JP4928366B2 (ja) 2007-06-25 2012-05-09 日本電信電話株式会社 ピッチ探索装置、パケット消失補償装置、それらの方法、プログラム及びその記録媒体
JP4572218B2 (ja) 2007-06-27 2010-11-04 日本電信電話株式会社 音楽区間検出方法、音楽区間検出装置、音楽区間検出プログラム及び記録媒体
US10795949B2 (en) 2007-07-26 2020-10-06 Hamid Hatami-Hanza Methods and systems for investigation of compositions of ontological subjects and intelligent systems therefrom
US20110116542A1 (en) 2007-08-24 2011-05-19 France Telecom Symbol plane encoding/decoding with dynamic calculation of probability tables
CN101790757B (zh) 2007-08-27 2012-05-30 爱立信电话股份有限公司 语音与音频信号的改进的变换编码
CN100524462C (zh) 2007-09-15 2009-08-05 华为技术有限公司 对高带信号进行帧错误隐藏的方法及装置
JP5547081B2 (ja) * 2007-11-02 2014-07-09 華為技術有限公司 音声復号化方法及び装置
WO2009066869A1 (en) 2007-11-21 2009-05-28 Electronics And Telecommunications Research Institute Frequency band determining method for quantization noise shaping and transient noise shaping method using the same
KR101162275B1 (ko) 2007-12-31 2012-07-04 엘지전자 주식회사 오디오 신호 처리 방법 및 장치
US8386271B2 (en) 2008-03-25 2013-02-26 Microsoft Corporation Lossless and near lossless scalable audio codec
CN102057424B (zh) 2008-06-13 2015-06-17 诺基亚公司 用于经编码的音频数据的错误隐藏的方法和装置
EP2144231A1 (en) 2008-07-11 2010-01-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Low bitrate audio encoding/decoding scheme with common preprocessing
PL2346030T3 (pl) 2008-07-11 2015-03-31 Fraunhofer Ges Forschung Koder audio, sposób kodowania sygnału audio oraz program komputerowy
MX2011000369A (es) 2008-07-11 2011-07-29 Ten Forschung Ev Fraunhofer Codificador y decodificador de audio para codificar marcos de señales de audio muestreadas.
EP2144230A1 (en) 2008-07-11 2010-01-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Low bitrate audio encoding/decoding scheme having cascaded switches
US8577673B2 (en) 2008-09-15 2013-11-05 Huawei Technologies Co., Ltd. CELP post-processing for music signals
TWI419148B (zh) 2008-10-08 2013-12-11 Fraunhofer Ges Forschung 多解析度切換音訊編碼/解碼方案
GB2466673B (en) 2009-01-06 2012-11-07 Skype Quantization
CA2750795C (en) 2009-01-28 2015-05-26 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Audio encoder, audio decoder, encoded audio information, methods for encoding and decoding an audio signal and computer program
JP4945586B2 (ja) 2009-02-02 2012-06-06 株式会社東芝 信号帯域拡張装置
US20100223061A1 (en) 2009-02-27 2010-09-02 Nokia Corporation Method and Apparatus for Audio Coding
JP4932917B2 (ja) 2009-04-03 2012-05-16 株式会社エヌ・ティ・ティ・ドコモ 音声復号装置、音声復号方法、及び音声復号プログラム
FR2944664A1 (fr) 2009-04-21 2010-10-22 Thomson Licensing Dispositif et procede de traitement d'images
US8428938B2 (en) 2009-06-04 2013-04-23 Qualcomm Incorporated Systems and methods for reconstructing an erased speech frame
US8352252B2 (en) 2009-06-04 2013-01-08 Qualcomm Incorporated Systems and methods for preventing the loss of information within a speech frame
KR20100136890A (ko) 2009-06-19 2010-12-29 삼성전자주식회사 컨텍스트 기반의 산술 부호화 장치 및 방법과 산술 복호화 장치 및 방법
CN101958119B (zh) 2009-07-16 2012-02-29 中兴通讯股份有限公司 一种改进的离散余弦变换域音频丢帧补偿器和补偿方法
ES2441069T3 (es) * 2009-10-08 2014-01-31 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Decodificador multimodo para señal de audio, codificador multimodo para señal de audio, procedimiento y programa de computación que usan un modelado de ruido en base a linealidad-predicción-codificación
WO2011044700A1 (en) 2009-10-15 2011-04-21 Voiceage Corporation Simultaneous time-domain and frequency-domain noise shaping for tdac transforms
WO2011048118A1 (en) 2009-10-20 2011-04-28 Fraunhofer Gesellschaft zur Förderung der angewandten Forschung e.V. Audio signal encoder, audio signal decoder, method for providing an encoded representation of an audio content, method for providing a decoded representation of an audio content and computer program for use in low delay applications
PT2491553T (pt) 2009-10-20 2017-01-20 Fraunhofer Ges Forschung Codificador de áudio, descodificador de áudio, método para codificar uma informação de áudio, método para descodificar uma informação de áudio e programa de computador que utiliza uma redução iterativa de tamanho de intervalo
US8207875B2 (en) 2009-10-28 2012-06-26 Motorola Mobility, Inc. Encoder that optimizes bit allocation for information sub-parts
US7978101B2 (en) 2009-10-28 2011-07-12 Motorola Mobility, Inc. Encoder and decoder using arithmetic stage to compress code space that is not fully utilized
KR101761629B1 (ko) 2009-11-24 2017-07-26 엘지전자 주식회사 오디오 신호 처리 방법 및 장치
MX2012008075A (es) 2010-01-12 2013-12-16 Fraunhofer Ges Forschung Codificador de audio, decodificador de audio, metodo para codificar e informacion de audio, metodo para decodificar una informacion de audio y programa de computacion utilizando una modificacion de una representacion de un numero de un valor de contexto numerico previo.
US20110196673A1 (en) 2010-02-11 2011-08-11 Qualcomm Incorporated Concealing lost packets in a sub-band coding decoder
EP2375409A1 (en) 2010-04-09 2011-10-12 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder, audio decoder and related methods for processing multi-channel audio signals using complex prediction
FR2961980A1 (fr) 2010-06-24 2011-12-30 France Telecom Controle d'une boucle de retroaction de mise en forme de bruit dans un codeur de signal audionumerique
EP3422346B1 (en) 2010-07-02 2020-04-22 Dolby International AB Audio encoding with decision about the application of postfiltering when decoding
ES2937066T3 (es) 2010-07-20 2023-03-23 Fraunhofer Ges Forschung Decodificador de audio, procedimiento y programa informático para decodificación de audio
US9082416B2 (en) 2010-09-16 2015-07-14 Qualcomm Incorporated Estimating a pitch lag
US8738385B2 (en) 2010-10-20 2014-05-27 Broadcom Corporation Pitch-based pre-filtering and post-filtering for compression of audio signals
AR085794A1 (es) 2011-02-14 2013-10-30 Fraunhofer Ges Forschung Prediccion lineal basada en esquema de codificacion utilizando conformacion de ruido de dominio espectral
US9270807B2 (en) 2011-02-23 2016-02-23 Digimarc Corporation Audio localization using audio signal encoding and recognition
KR101748760B1 (ko) 2011-03-18 2017-06-19 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에.베. 오디오 콘텐츠를 표현하는 비트스트림의 프레임들 내의 프레임 요소 배치
MX2013012301A (es) * 2011-04-21 2013-12-06 Samsung Electronics Co Ltd Aparato para cuantificar coeficientes de codificacion predictiva lineal, aparato de codificacion de sonido, aparato para decuantificar coeficientes de codificacion predictiva lineal, aparato de decodificacion de sonido y dispositivo electronico para los mismos.
EP2707873B1 (en) 2011-05-09 2015-04-08 Dolby International AB Method and encoder for processing a digital stereo audio signal
FR2977439A1 (fr) 2011-06-28 2013-01-04 France Telecom Fenetres de ponderation en codage/decodage par transformee avec recouvrement, optimisees en retard.
US9363339B2 (en) 2011-07-12 2016-06-07 Hughes Network Systems, Llc Staged data compression, including block level long range compression, for data streams in a communications system
FR2977969A1 (fr) 2011-07-12 2013-01-18 France Telecom Adaptation de fenetres de ponderation d'analyse ou de synthese pour un codage ou decodage par transformee
CN103493130B (zh) 2012-01-20 2016-05-18 弗劳恩霍夫应用研究促进协会 用以利用正弦代换进行音频编码及译码的装置和方法
WO2013149672A1 (en) 2012-04-05 2013-10-10 Huawei Technologies Co., Ltd. Method for determining an encoding parameter for a multi-channel audio signal and multi-channel audio encoder
US20130282373A1 (en) 2012-04-23 2013-10-24 Qualcomm Incorporated Systems and methods for audio signal processing
US9026451B1 (en) 2012-05-09 2015-05-05 Google Inc. Pitch post-filter
WO2013183977A1 (ko) 2012-06-08 2013-12-12 삼성전자 주식회사 프레임 에러 은닉방법 및 장치와 오디오 복호화방법 및 장치
GB201210373D0 (en) 2012-06-12 2012-07-25 Meridian Audio Ltd Doubly compatible lossless audio sandwidth extension
FR2992766A1 (fr) 2012-06-29 2014-01-03 France Telecom Attenuation efficace de pre-echos dans un signal audionumerique
CN106941004B (zh) 2012-07-13 2021-05-18 华为技术有限公司 音频信号的比特分配的方法和装置
CN102779526B (zh) 2012-08-07 2014-04-16 无锡成电科大科技发展有限公司 语音信号中基音提取及修正方法
US9406307B2 (en) 2012-08-19 2016-08-02 The Regents Of The University Of California Method and apparatus for polyphonic audio signal prediction in coding and networking systems
US9293146B2 (en) 2012-09-04 2016-03-22 Apple Inc. Intensity stereo coding in advanced audio coding
US9280975B2 (en) 2012-09-24 2016-03-08 Samsung Electronics Co., Ltd. Frame error concealment method and apparatus, and audio decoding method and apparatus
CN103714821A (zh) 2012-09-28 2014-04-09 杜比实验室特许公司 基于位置的混合域数据包丢失隐藏
US9401153B2 (en) 2012-10-15 2016-07-26 Digimarc Corporation Multi-mode audio recognition and auxiliary data encoding and decoding
US9318116B2 (en) 2012-12-14 2016-04-19 Disney Enterprises, Inc. Acoustic data transmission based on groups of audio receivers
EP2757558A1 (en) 2013-01-18 2014-07-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Time domain level adjustment for audio signal decoding or encoding
FR3001593A1 (fr) 2013-01-31 2014-08-01 France Telecom Correction perfectionnee de perte de trame au decodage d'un signal.
RU2628144C2 (ru) 2013-02-05 2017-08-15 Телефонактиеболагет Л М Эрикссон (Пабл) Способ и устройство для управления маскировкой потери аудиокадров
TWI530941B (zh) 2013-04-03 2016-04-21 杜比實驗室特許公司 用於基於物件音頻之互動成像的方法與系統
AU2014283389B2 (en) 2013-06-21 2017-10-05 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for improved concealment of the adaptive codebook in ACELP-like concealment employing improved pulse resynchronization
EP2830061A1 (en) * 2013-07-22 2015-01-28 Fraunhofer Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for encoding and decoding an encoded audio signal using temporal noise/patch shaping
EP2830055A1 (en) 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Context-based entropy coding of sample values of a spectral envelope
KR101831289B1 (ko) 2013-10-18 2018-02-22 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에.베. 오디오 신호의 스펙트럼의 스펙트럼 계수들의 코딩
US9906858B2 (en) 2013-10-22 2018-02-27 Bongiovi Acoustics Llc System and method for digital signal processing
EP3063761B1 (en) * 2013-10-31 2017-11-22 Fraunhofer Gesellschaft zur Förderung der angewandten Forschung E.V. Audio bandwidth extension by insertion of temporal pre-shaped noise in frequency domain
KR101940740B1 (ko) 2013-10-31 2019-01-22 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 시간 도메인 여기 신호를 변형하는 오류 은닉을 사용하여 디코딩된 오디오 정보를 제공하기 위한 오디오 디코더 및 방법
ES2805744T3 (es) 2013-10-31 2021-02-15 Fraunhofer Ges Forschung Decodificador de audio y método para proporcionar una información de audio decodificada usando un ocultamiento de errores en base a una señal de excitación de dominio de tiempo
BR112016010197B1 (pt) 2013-11-13 2021-12-21 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Codificador para codificar um sinal áudio, sistema de transmissão de áudio e método para determinar os valores de correção
GB2524333A (en) * 2014-03-21 2015-09-23 Nokia Technologies Oy Audio signal payload
ES2827278T3 (es) 2014-04-17 2021-05-20 Voiceage Corp Método, dispositivo y memoria no transitoria legible por ordenador para codificación y decodificación predictiva linealde señales sonoras en la transición entre tramas que tienen diferentes tasas de muestreo
US9396733B2 (en) 2014-05-06 2016-07-19 University Of Macau Reversible audio data hiding
NO2780522T3 (ja) 2014-05-15 2018-06-09
EP2963649A1 (en) 2014-07-01 2016-01-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio processor and method for processing an audio signal using horizontal phase correction
US9685166B2 (en) 2014-07-26 2017-06-20 Huawei Technologies Co., Ltd. Classification between time-domain coding and frequency domain coding
EP2980799A1 (en) 2014-07-28 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for processing an audio signal using a harmonic post-filter
PT3000110T (pt) 2014-07-28 2017-02-15 Fraunhofer Ges Forschung Seleção de um de entre um primeiro algoritmo de codificação e um segundo algoritmo de codificação com o uso de redução de harmônicos.
WO2016016724A2 (ko) * 2014-07-28 2016-02-04 삼성전자 주식회사 패킷 손실 은닉방법 및 장치와 이를 적용한 복호화방법 및 장치
EP2980796A1 (en) 2014-07-28 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Method and apparatus for processing an audio signal, audio decoder, and audio encoder
EP2980798A1 (en) 2014-07-28 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Harmonicity-dependent controlling of a harmonic filter tool
EP2988300A1 (en) 2014-08-18 2016-02-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Switching of sampling rates at audio processing devices
WO2016142002A1 (en) 2015-03-09 2016-09-15 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Audio encoder, audio decoder, method for encoding an audio signal and method for decoding an encoded audio signal
EP3067886A1 (en) * 2015-03-09 2016-09-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder for encoding a multichannel signal and audio decoder for decoding an encoded audio signal
US10296959B1 (en) 2015-03-30 2019-05-21 Audible, Inc. Automated recommendations of audio narrations
US9886963B2 (en) * 2015-04-05 2018-02-06 Qualcomm Incorporated Encoder selection
US10049684B2 (en) * 2015-04-05 2018-08-14 Qualcomm Incorporated Audio bandwidth selection
JP6422813B2 (ja) 2015-04-13 2018-11-14 日本電信電話株式会社 符号化装置、復号装置、これらの方法及びプログラム
US9978400B2 (en) 2015-06-11 2018-05-22 Zte Corporation Method and apparatus for frame loss concealment in transform domain
US10847170B2 (en) 2015-06-18 2020-11-24 Qualcomm Incorporated Device and method for generating a high-band signal from non-linearly processed sub-ranges
US9837089B2 (en) 2015-06-18 2017-12-05 Qualcomm Incorporated High-band signal generation
KR20170000933A (ko) 2015-06-25 2017-01-04 한국전기연구원 시간 지연 추정을 이용한 풍력 터빈의 피치 제어 시스템
US9830921B2 (en) 2015-08-17 2017-11-28 Qualcomm Incorporated High-band target signal control
WO2017039422A2 (ko) * 2015-09-04 2017-03-09 삼성전자 주식회사 음질 향상을 위한 신호 처리방법 및 장치
US9978381B2 (en) 2016-02-12 2018-05-22 Qualcomm Incorporated Encoding of multiple audio signals
US10219147B2 (en) * 2016-04-07 2019-02-26 Mediatek Inc. Enhanced codec control
US10283143B2 (en) 2016-04-08 2019-05-07 Friday Harbor Llc Estimating pitch of harmonic signals
CN107103908B (zh) 2017-05-02 2019-12-24 大连民族大学 复调音乐多音高估计方法及伪双谱在多音高估计中的应用

Also Published As

Publication number Publication date
ZA202002082B (en) 2021-07-28
PT3707713T (pt) 2021-12-03
JP2021502591A (ja) 2021-01-28
BR112020009034A2 (pt) 2020-10-27
RU2752520C1 (ru) 2021-07-28
KR20200077591A (ko) 2020-06-30
EP3483882A1 (en) 2019-05-15
AU2018363698A1 (en) 2020-05-21
AU2018363698B2 (en) 2020-12-17
EP3707713B1 (en) 2021-09-22
SG11202004171WA (en) 2020-06-29
TW201923747A (zh) 2019-06-16
KR102426033B1 (ko) 2022-07-27
TWI691954B (zh) 2020-04-21
CN111344784A (zh) 2020-06-26
ES2898281T3 (es) 2022-03-04
MX2020004779A (es) 2020-08-13
CA3080907A1 (en) 2019-05-16
CN111344784B (zh) 2023-08-08
US11462226B2 (en) 2022-10-04
AR113479A1 (es) 2020-05-06
WO2019091977A1 (en) 2019-05-16
US20200265852A1 (en) 2020-08-20
CA3080907C (en) 2023-12-19
EP3707713A1 (en) 2020-09-16
PL3707713T3 (pl) 2022-01-31

Similar Documents

Publication Publication Date Title
RU2608878C1 (ru) Регулировка уровня во временной области для декодирования или кодирования аудиосигналов
US11043226B2 (en) Apparatus and method for encoding and decoding an audio signal using downsampling or interpolation of scale parameters
AU2015295624B2 (en) Method for estimating noise in an audio signal, noise estimator, audio encoder, audio decoder, and system for transmitting audio signals
JP7003253B2 (ja) エンコーダおよび/またはデコーダの帯域幅の制御
AU2021303726B2 (en) Audio quantizer and audio dequantizer and related methods
TWI841856B (zh) 音頻量化器和音頻去量化器及相關方法以及電腦程式

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200615

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210906

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211228

R150 Certificate of patent or registration of utility model

Ref document number: 7003253

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150