JP2022110116A - オーディオエンコーダ、オーディオデコーダ、オーディオ信号を符号化する方法、および符号化されたオーディオ信号を復号化する方法 - Google Patents

オーディオエンコーダ、オーディオデコーダ、オーディオ信号を符号化する方法、および符号化されたオーディオ信号を復号化する方法 Download PDF

Info

Publication number
JP2022110116A
JP2022110116A JP2022082087A JP2022082087A JP2022110116A JP 2022110116 A JP2022110116 A JP 2022110116A JP 2022082087 A JP2022082087 A JP 2022082087A JP 2022082087 A JP2022082087 A JP 2022082087A JP 2022110116 A JP2022110116 A JP 2022110116A
Authority
JP
Japan
Prior art keywords
spectral coefficients
spectral
decoder
encoder
individual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022082087A
Other languages
English (en)
Inventor
エドラー・ベルント
Edler Bernd
ヘルムリッヒ・クリスティアン
Helmrich Christian
ノイエンドルフ・マックス
Neuendorf Max
シュベルト・ベンジャミン
schubert Benjamin
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Publication of JP2022110116A publication Critical patent/JP2022110116A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/032Quantisation or dequantisation of spectral components
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/26Pre-filtering or post-filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/12Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being prediction coefficients
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/547Motion estimation performed in a transform domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
    • H04N19/635Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets characterised by filter definition or implementation details

Abstract

【課題】より効率的で計算コストが低い実施態様につながる、オーディオ信号を符号化および/または符号化されたオーディオ信号を復号化する方法及び装置を提供する。【解決手段】オーディオ信号を符号化するエンコーダ100は、変換領域又はフィルタバンク領域104において、現在のフレーム108_t0及び少なくとも1つの前のフレーム108_t-1についてのオーディオ信号のスペクトル係数106_t0_f1から106_t0_f6を決定し、少なくとも1つのスペクトル係数によって隔てられている複数の個々のスペクトル係数106_t0_f2又はスペクトル係数グループ106_t0_f4,106_t0_f5に対して予測符号化を選択的に適用する。【選択図】図1

Description

実施形態は、オーディオ符号化、詳細には、予測符号化を用いて、オーディオ信号を符号化する方法および装置、ならびに予測復号化を用いて、符号化されたオーディオ信号を復号化する方法および装置に関する。好ましい実施形態は、ピッチ適応型スペクトル予測の方法および装置に関する。さらに好ましい実施形態は、スペクトル領域のフレーム間予測ツールを用いた変換符号化による、トーン性のオーディオ信号の知覚的符号化に関する。
特に低ビットレートにおいて、符号化されたトーン性の信号の品質を向上させるため、最近のオーディオ変換コーダは、非常に長い変換および/または長期予測またはプレ/ポストフィルタリングを使用している。ただし、長い変換は、長いアルゴリズム遅延を暗に示しており、低遅延の通信シナリオには望ましくない。したがって、瞬間的基準ピッチに基づく非常に低遅延の予測器が最近人気を得ている。IETF(インターネット技術タスクフォース)のOpusコーデックは、その周波数領域のCELT(Constrained-Energy Lapped Transform)符号化パス(J.M.Valin,K.VosおよびT.Terriberryによる「Definition of the Opus audio codec」、インターネット技術タスクフォース、技術レポートRFC6716、2012年、http://tools.ietf.org/html/rfc67161)においてピッチ適用型のプレフィルタリングおよびポストフィルタリングを利用しており、また3GPP(3rd Generation Partnership Project)のEVS(Enhanced Voice Services)コーデックは、変換符号化された信号の知覚的改善のために長期高調波ポストフィルタを提供している(3GPP TS 26.443「Codec for Enhanced Voice Services(EVS)」、リリース12、2014年12月)。これらのアプローチはいずれも、完全に復号化された信号波形上の時間領域内で働き、周波数選択的に(いずれのスキームも、いくつかの周波数に対して、単純なローパスフィルタを選択的に提供するのみである)適用することは難しく、および/または、計算上コストが高い。時間領域の長期予測(LTP)またはプレ/ポストフィルタリング(PPF)にとって歓迎される代替手段は、結果として、MPEG-2 AAC(ISO/IEC 13818-7「Information technology-Part 7:Advanced Audio Coding(AAC)」、2006年)でサポートされているように周波数領域予測(FDP)によって提供される。この方法は、周波数選択性を容易にするものの、以下に記載するとおり、固有のデメリットがある。
J.M.Valin,K.VosおよびT.Terriberryによる「Definition of the Opus audio codec」、インターネット技術タスクフォース、技術レポートRFC6716、2012年、http://tools.ietf.org/html/rfc67161 3GPP TS 26.443「Codec for Enhanced Voice Services(EVS)」、リリース12、2014年12月
上記に紹介したFDP手法には、他のツールと比較して2つの欠点がある。第1に、FDP手法は、高い計算複雑度を要する。詳細には、少なくとも2回の線形予測符号化が(すなわち、最後の2フレームのチャネル変換ビンから)、すべてのスケールファクタバンドにおける予測の最悪ケースにおいて、各フレームおよびチャネルの数百のスペクトルビンに適用される(ISO/IEC 13818-7「Information technology-Part 7:Advanced Audio Coding(AAC)」、2006年)。第2に、FDP手法は、限られた全体予測利得を含んでいる。より詳細には、予測可能な高調波のトーン性のスペクトル部の間の、ノイズの多い要素も予測の対象となり、これらのノイズの多い部分は通常予測可能ではないため誤差を引き起こすことから、予測の効率が限られている。
高い複雑性は、予測器の後方適応性に起因する。つまり、各ビンの予測係数は、先に送信されたビンに基づいて計算されなければならないということである。そのため、エンコーダとデコーダとの間の数値的な不正確さは、食い違う予測係数に起因する再構成誤差につながり得る。この問題を克服するため、bit exactな同一の適応が保証されなければならない。さらに、予測器のグループが、あるフレームにおいてディセーブルにされた場合でも、予測係数を最新の状態に保つために、適応は常に行われなければならない。
そのため、前述の課題の少なくとも1つ(例えば両方)を回避し、より効率的で計算コストが低い実施態様につながる、オーディオ信号を符号化および/または符号化されたオーディオ信号を復号化する概念を提供することが本発明の目的である。
独立請求項によって、この問題を解決する。
従属請求項によって、有利な実施態様を扱う。
実施形態は、オーディオ信号を符号化するエンコーダを提供する。エンコーダは、変換領域またはフィルタバンク領域において、オーディオ信号を符号化するように構成され、エンコーダは、現在のフレームおよび少なくとも1つの前のフレームについてのオーディオ信号のスペクトル係数を決定するように構成され、エンコーダは、複数の、個々のスペクトル係数またはスペクトル係数グループに対して、予測符号化を選択的に適用するように構成され、エンコーダは、間隔値を決定するように構成され、エンコーダは、予測符号化が適用される、複数の、個々のスペクトル係数またはスペクトル係数グループを、符号化されたオーディオ信号と共にサイド情報として送信され得る間隔値に基づいて選択するように構成される。
さらなる実施形態は、符号化されたオーディオ信号(例えば、上記のエンコーダで符号化された)を復号化するデコーダを提供する。デコーダは、変換領域またはフィルタバンク領域において、符号化されたオーディオ信号を復号化するように構成され、デコーダは、現在のフレームおよび少なくとも1つの前のフレームについてのオーディオ信号の符号化されたスペクトル係数を得るために、符号化されたオーディオ信号を解析するように構成され、またデコーダは、複数の、個々の符号化されたスペクトル係数または符号化されたスペクトル係数グループに対して、予測復号化を選択的に適用するように構成され、デコーダは、予測復号化が適用される複数の、個々の符号化されたスペクトル係数または符号化されたスペクトル係数グループを、送信された間隔値に基づいて選択するように構成され得る。
本発明の概念によれば、予測符号化は、選択されたスペクトル係数(のみ)に適用される。予測符号化が適用されるスペクトル係数は、信号特性に応じて選択することができる。例えば、ノイズの多い信号要素に予想符号化を適用しないことによって、予測不可能な、ノイズの多い信号要素を予測することによってもたらされる前述の誤差が回避される。それと同時に、予測符号化が、選択されたスペクトル要素のみに適用されるため、計算複雑度を低減することができる。
例えば、誘導型/適応型のスペクトル領域のフレーム間予測手法と共に変換符号化によって、トーン性のオーディオ信号の知覚符号化を行うことができる(例えば、エンコーダによって)。予測を、例えば、エンコーダからデコーダへの適切なビットストリーム内で例えば間隔値として送ることができる、基本周波数または基本ピッチの、整数倍に位置する高調波信号要素の周辺のスペクトル係数のみに予測を適用することによって、周波数領域予測(FDP)の効率を高めることができ、計算複雑度を低減することができる。本発明の実施形態は、好ましくはMPEG-H 3Dオーディオコーデックに実装または組み込むことができるが、例えばMPEG-2 AACなどの任意のオーディオ変換符号化システムに適用可能である。
さらなる実施形態は、変換領域またはフィルタバンク領域において、オーディオ信号を符号化する方法を提供し、その方法は、
現在のフレームおよび少なくとも1つの前のフレームについてのオーディオ信号のスペクトル係数を決定することと、
間隔値を決定することと、
複数の、個々のスペクトル係数またはスペクトル係数グループに対して、予測符号化を選択的に適用することであって、予測符号化が適用される複数の、個々のスペクトル係数またはスペクトル係数グループは、間隔値に基づいて選択されることと
を含む。
さらなる実施形態は、変換領域またはフィルタバンク領域において、符号化されたオーディオ信号を復号化する方法を提供し、その方法は、
現在のフレームおよび少なくとも1つの前のフレームについてのオーディオ信号の符号化されたスペクトル係数を得るために、符号化されたオーディオ信号を解析することと、
間隔値を得ることと、
複数の、個々の符号化されたスペクトル係数または符号化されたスペクトル係数グループに対して、予測復号化を選択的に適用することであって、予測復号化が適用される複数の、個々の符号化されたスペクトル係数または符号化されたスペクトル係数グループは、間隔値に基づいて選択されることと
を含む。
本発明の実施形態を、添付図面を参照しつつ以下のとおり本明細書に記載する。
一実施形態に係る、オーディオ信号を符号化するエンコーダの概略ブロック図を示す。 一実施形態に係る、現在のフレームについての周波数にわたってプロットされたオーディオ信号の振幅、および予測符号化が適用される、対応する選択されたスペクトル係数を図に示す。 現在のフレームについての周波数にわたってプロットされたオーディオ信号の振幅、およびMPEG-2 AACによって予測の対象となる、対応するスペクトル係数を図に示す。 一実施形態に係る、符号化されたオーディオ信号を複合化するデコーダの概略ブロック図を示す。 一実施形態に係る、オーディオ信号を符号化する方法のフローチャートを示す。 一実施形態に係る、符号化されたオーディオ信号を復号化する方法のフローチャートを示す。
同等もしくは相当する要素、または同等もしくは相当する機能性を有する要素は、同等または相当する符号によって以下の記述に示す。
以下の記述において、本発明の実施形態をより詳しく説明するために複数の詳細を説明する。ただし、これらの具体的な詳細がなくても本発明の実施形態を実施し得ることは、当業者には明らかであろう。他の例では、本発明の実施形態を曖昧にしないように、よく知られた構造およびデバイスを、詳細にではなくブロック図の形式で示す。さらに、以下に記載する異なる実施形態の特徴は、特に断りのない限り、互いに組み合わされ得る。
図1は、一実施形態に係る、オーディオ信号102を符号化するエンコーダ100の概略ブロック図を示している。エンコーダ100は、変換領域またはフィルタバンク領域104(例えば、周波数領域またはスペクトル領域)において、オーディオ信号102を符号化するように構成され、エンコーダ100は、現在のフレーム108_t0についてのオーディオ信号102のスペクトル係数106_t0_f1から106_t0_f6、および少なくとも1つの前のフレーム108_t-1についてのオーディオ信号のスペクトル係数106_t-1_f1から106_t-1_f6を決定するように構成される。さらに、エンコーダ100は、複数の、個々のスペクトル係数106_t0_f2またはスペクトル係数グループ106_t0_f4および106_t0_f5に対して、予測符号化を選択的に適用するように構成され、エンコーダ100は、間隔値を決定するように構成され、エンコーダ100は、予測符号化が適用される複数の、個々のスペクトル係数106_t0_f2またはスペクトル係数グループ106_t0_f4および106_t0_f5を、間隔値に基づいて選択するように構成される。
つまり、エンコーダ100は、サイド情報として送信された単一の間隔値に基づいて選択された複数の、個々のスペクトル係数106_t0_f2またはスペクトル係数グループ106_t0_f4および106_t0_f5に対して、予測符号化を選択的に適用するように構成される。
この間隔値は、その整数倍と共に、予測が適用される、すべてのスペクトル係数グループについて中心を定義する周波数(例えば、(オーディオ信号102の)高調波トーンの基本周波数)に対応し得、すなわち、第1のグループはこの周波数の周辺とすることができ、第2のグループはこの周波数掛ける2の周辺を中心とすることができ、第3のグループはこの周波数掛ける3の周辺を中心とすることができる、などである。これらの中心周波数の知識が、対応する正弦波信号成分(例えば、高調波信号の基本および倍音)を予測するための予測係数の計算を可能とする。このように、複雑で誤差が生じやすい、予測係数の後方適応は不要となる。
実施形態において、エンコーダ100は、フレーム毎に1つの間隔値を決定するように構成することができる。
実施形態において、複数の、個々のスペクトル係数106_t0_f2またはスペクトル係数グループ106_t0_f4および106_t0_f5は、少なくとも1つのスペクトル係数106_t0_f3によって隔てることができる。
実施形態において、エンコーダ100は、例えば、少なくとも1つのスペクトル係数によって隔てられている、2つの個々のスペクトル係数に対してなど、少なくとも1つのスペクトル係数によって隔てられている複数の個々のスペクトル係数に対して、予測符号化を適用するように構成することができる。さらに、エンコーダ100は、例えば、少なくとも1つのスペクトル係数によって隔てられている、2つのスペクトル係数グループに対してなど、少なくとも1つのスペクトル係数によって隔てられている複数のスペクトル係数グループ(各グループは、少なくとも2つのスペクトル係数を含む)に対して、予測符号化を適用するように構成することができる。さらに、エンコーダ100は、例えば、少なくとも1つのスペクトル係数によって隔てられている、少なくとも1つの個々のスペクトル係数および少なくとも1つのスペクトル係数グループに対してなど、少なくとも1つのスペクトル係数によって隔てられている複数の、個々のスペクトル係数および/またはスペクトル係数グループに対して、予測符号化を適用するように構成することができる。
図1に示す例では、エンコーダ100は、現在のフレーム108_t0について6つのスペクトル係数106_t0_f1から106_t0_f6、および前のフレーム108_t-1について6つのスペクトル係数106_t-1_f1から106_t-1_f6を決定するように構成される。その結果、エンコーダ100は、現在のフレームの個々の第2のスペクトル係数106_t0_f2に対して、および現在のフレーム108_t0の第4および第5のスペクトル係数106_t0_f4および106_t0_f5からなるスペクトル係数グループに対して、予測符号化を選択的に適用するように構成される。分かるように、個々の第2のスペクトル係数106_t0_f2、ならびに第4および第5のスペクトル係数106_t0_f4および106_t0_f5からなるスペクトル係数グループは、第3のスペクトル係数106_t0_f3によって互いに隔てられている。
なお、本明細書において「選択的に」という用語は、選択されたスペクトル係数に対して(のみ)、予測符号化を適用することをいう。つまり、予測符号化は、必ずしもすべてのスペクトル係数に対して適用されるのではなく、むしろ、選択された、個々のスペクトル係数またはスペクトル係数グループ、つまり少なくとも1つのスペクトル係数によって互いに隔てることができる、選択された、個々のスペクトル係数および/またはスペクトル係数グループに対してのみ適用される。つまり、予測符号化は、選択された複数の、個々のスペクトル係数またはスペクトル係数グループを、隔てている、少なくとも1つのスペクトル係数についてディセーブルにすることができる。
実施形態において、エンコーダ100は、現在のフレーム108_t0の複数の、個々のスペクトル係数106_t0_f2またはスペクトル係数グループ106_t0_f4および106_t0_f5に対して、前のフレーム108_t-1の、少なくとも、対応する複数の、個々のスペクトル係数106_t-1_f2またはスペクトル係数グループ106_t-1_f4および106_t-1_f5に基づいて、予測符号化を選択的に適用するように構成することができる。
例えば、エンコーダ100は、現在のフレーム108_t0の複数の、個々の予測されたスペクトル係数110_t0_f2または予測されたスペクトル係数グループ110_t0_f4および110_t0_f5と、現在のフレームの複数の、個々のスペクトル係数106_t0_f2またはスペクトル係数グループ106_t0_f4および106_t0_f5(またはその量子化されたバージョン)との間の予測誤差を符号化することによって、現在のフレーム108_t0の複数の、個々のスペクトル係数106_t0_f2またはスペクトル係数グループ106_t0_f4および106_t0_f5を、予測符号化するように構成することができる。
図1において、エンコーダ100は、現在のフレーム108_t0の個々の予測されたスペクトル係数110_t0_f2と、現在のフレーム108_t0の個々のスペクトル係数106_t0_f2との間、および現在のフレームの予測されたスペクトル係数グループ110_t0_f4および110_t0_f5と、現在のフレームのスペクトル係数グループ106_t0_f4および106_t0_f5との間の、予測誤差を符号化することによって、個々のスペクトル係数106_t0_f2、ならびにスペクトル係数106_t0_f4および106_t0_f5からなるスペクトル係数グループを符号化する。
つまり、第2のスペクトル係数106_t0_f2は、予測された第2のスペクトル係数110_t0_f2と(実際の、または決定された)第2のスペクトル係数106_t0_f2との間の予測誤差(または差分)を符号化することによって符号化され、第4のスペクトル係数106_t0_f4は、予測された第4のスペクトル係数110_t0_f4と(実際の、または決定された)第4のスペクトル係数106_t0_f4との間の予測誤差(または差分)を符号化することによって符号化され、第5のスペクトル係数106_t0_f5は、予測された第5のスペクトル係数110_t0_f5と(実際の、または決定された)第5のスペクトル係数106_t0_f5との間の予測誤差(または差分)を符号化することによって符号化される。
一実施形態において、エンコーダ100は、現在のフレーム108_t0についての複数の、個々の予測されたスペクトル係数110_t0_f2または予測されたスペクトル係数グループ110_t0_f4および110_t0_f5を、前のフレーム108_t-1の、対応する実際バージョンの複数の、個々のスペクトル係数106_t-1_f2またはスペクトル係数グループ106_t-1_f4および106_t-1_f5によって決定するように構成することができる。
つまり、エンコーダ100は、上記の決定プロセスにおいて、前のフレーム108_t-1の複数の、個々の実際のスペクトル係数106_t-1_f2または実際のスペクトル係数グループ106_t-1_f4および106_t-1_f5を直接用い得、106_t-1_f2、106_t-1_f4および106_t-1_f5は、前記エンコーダが変換領域またはフィルタバンク領域104において働き得るような、エンコーダ100によって得られたままの、オリジナル、すなわちまだ量子化されていない、スペクトル係数またはスペクトル係数グループを、それぞれ表している。
例えば、エンコーダ100は、現在のフレーム108_t0の予測された第2のスペクトル係数110_t0_f2を、前のフレーム10 108_t-1の、対応するまだ量子化されていないバージョンの第2のスペクトル係数106_t-1_f2に基づいて、現在のフレーム108_t0の予測された第4のスペクトル係数110_t0_f4を、前のフレーム108_t-1の、対応するまだ量子化されていないバージョンの第4のスペクトル係数106_t-1_f4に基づいて、また、現在のフレーム108_t0の予測された第5のスペクトル係数110_t0_f5を、前のフレームの、対応するまだ量子化されていないバージョンの第5のスペクトル係数106_t-1_f5に基づいて、決定するように構成することができる。
対応するデコーダは、図4と関連して実施形態を後述するが、上記の決定ステップにおいて、前のフレーム108_t-1の、送信された量子化されたバージョンの、複数の個々のスペクトル係数106_t-1_f2または複数のスペクトル係数グループ106_t-1_f4および106_t-1_f5のみを、予測復号化のために使用することができるため、このアプローチによって、予測符号化および復号化スキームは、量子化ノイズの一種の高調波整形を呈することができる。
そのままで、例えば、時間領域において長期予測(LTP)によって従来行われたこうした高調波ノイズ整形は、予測符号化にとって主観的に有利とすることができる一方で、場合によっては、復号化されたオーディオ信号に、望ましくない過剰なトーン性が取り込まれることにつながり得るため、好ましくない場合がある。この理由から、対応する復号化と完全にシンクロし、それ自体、可能ないかなる予測利得も引き出すが、量子化ノイズ整形にはつながらない、代わりの予測符号化スキームを以下に記載する。この代わりの符号化実施形態によれば、エンコーダ100は、現在のフレーム108_t0についての複数の、個々の予測されたスペクトル係数110_t0_f2または予測されたスペクトル係数グループ110_t0_f4および110_t0_f5を、前のフレーム108_t-1の、対応する量子化されたバージョンの複数の、個々のスペクトル係数106_t-1_f2またはスペクトル係数グループ106_t-1_f4および106_t-1_f5を用いて決定するように構成することができる。
例えば、エンコーダ100は、現在のフレーム108_t0の予測された第2のスペクトル係数110_t0_f2を、前のフレーム108_t-1の、対応する量子化されたバージョンの第2のスペクトル係数106_t-1_f2に基づいて、現在のフレーム108_t0の予測された第4のスペクトル係数110_t0_f4を、前のフレーム108_t-1の、対応する量子化されたバージョンの第4のスペクトル係数106_t-1_f4に基づいて、また、現在のフレーム108_t0の予測された第5のスペクトル係数110_t0_f5を、前のフレームの、対応する量子化されたバージョンの第5のスペクトル係数106_t-1_f5に基づいて決定するように構成することができる。
さらに、エンコーダ100は、間隔値から予測係数112_f2、114_f2、112_f4、114_f4、112_f5および114_f5を導出するように、そして現在のフレーム108_t0について複数の、個々の予測されたスペクトル係数110_t0_f2または予測されたスペクトル係数グループ110_t0_f4および110_t0_f5を、少なくとも2つの前のフレーム108_t-1および108_t-2の、対応する量子化されたバージョンの複数の、個々のスペクトル係数106_t-1_f2および106_t-2_f2またはスペクトル係数グループ106_t-1_f4,106_t-2_f4、106_t-1_f5および106_t-2_f5を用いて、ならびに導出された予測係数112_f2、114_f2、112_f4、114_f4、112_f5および114_f5を用いて計算するように構成される。
例えば、エンコーダ100は、第2のスペクトル係数106_t0_f2についての予測係数112_f2および114_f2を間隔値から導出するように、第4のスペクトル係数106_t0_f4についての予測係数112_f4および114_f4を間隔値から導出するように、そして、第5のスペクトル係数106_t0_f5についての予測係数112_f5および114_f5を間隔値から導出するように構成することができる。
例えば、予測係数の導出は、以下の方法で導出することができ、すなわち、間隔値が周波数f0またはその符号化されたバージョンに対応する場合、予測がイネーブルにされる、スペクトル係数のK番目のグループの中心周波数は、fc=K*f0である。サンプリング周波数がfsで変換のホップサイズ(連続するフレーム間のシフト)がNの場合、周波数fcの正弦波信号を前提とするK番目のグループにおける理想的な予測係数は以下のとおりである。
p1=2*cos(N*2*pi*fc/fs)およびp2=-1。
例えば、いずれのスペクトル係数106_t0_f4および106_t0_f5も、このグループ内である場合、予測係数は以下のとおりである。
112_f4=112_f5=2*cos(N*2*pi*fc/fs)および114_f4=114_f5=-1。
安定性の理由から、ダンピングファクタdを導入することができ、結果として以下の修正予測係数が得られる。
112_f4’=112_f5’=d*2*cos(N*2*pi*fc/fs)、114_f4’=114_f5’=d2。
間隔値は、符号化されたオーディオ信号120の中で送信されるため、デコーダは正確に同じ予測係数212_f4=212_f5=2*cos(N*2*pi*fc/fs)および114_f4=114_f5=-1を導出することができる。ダンピングファクタを用いる場合、係数をそれに応じて修正することができる。
図1に示すように、エンコーダ100は、符号化されたオーディオ信号120を提供するように構成することができる。その結果、エンコーダ100は、符号化されたオーディオ信号120に、予測符号化が適用される複数の、個々のスペクトル係数106_t0_f2またはスペクトル係数グループ106_t0_f4および106_t0_f5についての、量子化されたバージョンの予測誤差を含むように構成することができる。さらに、エンコーダ100は、符号化されたオーディオ信号120に、予測係数112_f2から114_f5を含まないように構成することができる。
このように、エンコーダ100は、予測係数112_f2から114_f5のみを、複数の、個々の予測されたスペクトル係数110_t0_f2または予測されたスペクトル係数グループ110_t0_f4および110_t0_f5を、ならびにそこから、個々の予測されたスペクトル係数110_t0_f2または予測されたスペクトル係数グループ110_t0_f4および110_t0_f5と、現在のフレームの個々のスペクトル係数106_t0_f2または予測されたスペクトル係数グループ110_t0_f4および110_t0_f5との間の予測誤差を、計算するために用い得るが、個々のスペクトル係数106_t0_f4(またはその量子化されたバージョン)またはスペクトル係数グループ106_t0_f4および106_t0_f5(またはその量子化されたバージョン)も、予測係数112_f2から114_f5も、符号化されたオーディオ信号120内に提供しないことになる。したがって、デコーダは、実施形態を図4と関連して後述するが、現在のフレームについての複数の、個々の予測されたスペクトル係数または予測されたスペクトル係数グループを計算するために、予測係数112_f2から114_f5を間隔値から導出し得る。
つまり、エンコーダ100は、予測符号化が適用される複数の、個々のスペクトル係数106_t0_f2またはスペクトル係数グループ106_t0_f4および106_t0_f5について、量子化されたバージョンの複数の、個々のスペクトル係数106_t0_f2またはスペクトル係数グループ106_t0_f4および106_t0_f5の代わりに、量子化されたバージョンの予測誤差を含む、符号化されたオーディオ信号120を提供するように構成することができる。
さらに、エンコーダ100は、その量子化されたバージョンの予測誤差が、符号化されたオーディオ信号120に含まれる、スペクトル係数106_t0_f2またはスペクトル係数グループ106_t0_f4および106_t0_f5と、その量子化されたバージョンが、予測符号化を用いずに提供される、スペクトル係数106_t0_f3またはスペクトル係数グループとが、交互になるように、複数の、個々のスペクトル係数106_t0_f2またはスペクトル係数グループ106_t0_f4および106_t0_f5を隔てている、量子化されたバージョンのスペクトル係数106_t0_f3を含む、符号化されたオーディオ信号102を提供するように構成することができる。
実施形態において、エンコーダ100は、量子化されたバージョンの予測誤差、および、複数の、個々のスペクトル係数106_t0_f2またはスペクトル係数グループ106_t0_f4および106_t0_f5を隔てている、量子化されたバージョンのスペクトル係数106_t0_f3を、エントロピ符号化するように、そしてエントロピ符号化されたバージョンを、符号化されたオーディオ信号120に(その非エントロピ符号化されたバージョンの代わりに)含むようにさらに構成することができる。
図2は、現在のフレーム108_t0について、周波数にわたってプロットされたオーディオ信号102の振幅を図に示している。さらに、図2では、オーディオ信号102の現在のフレーム108_t0についてエンコーダ100によって決定された、変換領域またはフィルタバンク領域におけるスペクトル係数を示している。
図2に示すように、エンコーダ100は、少なくとも1つのスペクトル係数によって隔てられている、複数のスペクトル係数グループ116_1から116_6に対して、予測符号化を選択的に適用するように構成することができる。詳細には、図2に示す実施形態において、エンコーダ100は、6つのスペクトル係数グループ116_1から116_6に対して、予測符号化を選択的に適用し、最初の5つのスペクトル係数グループ116_1から116_5のそれぞれは、3つのスペクトル係数を含み(例えば、第2のグループ116_2は、スペクトル係数106_t0_f8、106_t0_f9および106_t0_f10を含む)、第6のスペクトル係数グループ116_6は、2つのスペクトル係数を含む。その結果、6つのスペクトル係数グループ116_1から116_6は、予測符号化が適用されない、(5つの)スペクトル係数グループ118_1から118_5によって隔てられている。
つまり、図2に示すように、エンコーダ100は、予測符号化が適用されるスペクトル係数グループ116_1から116_6と、予測符号化が適用されないスペクトル係数グループ118_1から118_5とが、交互になるように、スペクトル係数グループ116_1から110_6に対して、予測符号化を選択的に適用するように構成することができる。
実施形態において、エンコーダ100は、間隔値(図2において矢印122_1および122_2で示される)を決定するように構成することができ、エンコーダ100は、予測符号化が適用される、複数のスペクトル係数グループ116_1から116_6(または複数の個々のスペクトル係数)を、間隔値に基づいて選択するように構成することができる。
間隔値は、例えば、オーディオ信号のピーク124_1および124_2など、オーディオ信号102の2つの特徴周波数の間の間隔(または距離)とすることができる。さらに、間隔値は、オーディオ信号の2つの特徴周波数の間の間隔を近似する、整数のスペクトル係数(またはスペクトル係数のインデックス)とすることができる。もちろん、間隔値は、オーディオ信号の2つの特徴周波数の間の間隔を表す、整数のスペクトル係数の実数または分数もしくは倍数とすることもできる。
実施形態において、エンコーダ100は、オーディオ信号(102)の瞬間的基本周波数を決定するように、そして瞬間的基本周波数またはその分数もしくは倍数から間隔値を導出するように構成することができる。
例えば、オーディオ信号102の第1のピーク124_1は、オーディオ信号102の瞬間的基本周波数(またはピッチ、または第1高調波)とすることができる。そのため、エンコーダ100は、オーディオ信号102の瞬間的基本周波数を決定するように、そして瞬間的基本周波数またはその分数もしくは倍数から間隔値を導出するように構成することができる。その場合、間隔値は、オーディオ信号102の瞬間的基本周波数124_1と第2高調波124_2との間の間隔を近似する整数のスペクトル係数(またはその分数もしくは倍数)とすることができる。
もちろん、オーディオ信号102は、2つを超える高調波を含み得る。例えば、図2に示すオーディオ信号102は、オーディオ信号102が瞬間的基本周波数の整数倍すべてにおいて高調波を含むように、スペクトル的に分布した6つの高調波124_1から124_6を含む。もちろん、オーディオ信号102が、第1、第3および第5高調波など、高調波のすべてはなく一部のみを含むということも可能である。
実施形態において、エンコーダ100は、予測符号化のために、間隔値によって定義された高調波グリッドによりスペクトル的に配置されたスペクトル係数グループ116_1から116_6(または個々のスペクトル係数)を選択するように構成することができる。その結果、間隔値によって定義された高調波グリッドは、オーディオ信号102の中の高調波の周期的なスペクトル分布(等距離間隔)を表す。つまり、間隔値によって定義された高調波グリッドは、オーディオ信号の高調波の等間隔距離を表す一連の間隔値とすることができる。
さらに、エンコーダ100は、そのスペクトルインデックスが、予測符号化のために、間隔値に基づいて導出された複数のスペクトルインデックスと、等しいかまたはその周辺の範囲(例えば、所定の、また可変の)内に収まる、スペクトル係数(例えば、そうしたスペクトル係数のみ)を選択するように構成することができる。
間隔値から、オーディオ信号102の高調波を表す、スペクトル係数のインデックス(または番号)を導出することができる。例えば、第4のスペクトル係数106_t0_f4がオーディオ信号102の瞬間的基本周波数を表していると仮定し、間隔値が5であると仮定すると、インデックス9を有するスペクトル係数は、間隔値に基づいて導出することができる。図2で分かるように、そのように導出された、インデックス9を有するスペクトル係数、すなわち第9のスペクトル係数106_t0_f9は、第2高調波を表す。同様に、インデックス14、19、24および29を有するスペクトル係数を導出することができ、第3から第6高調波124_3から124_6を表す。ただし、間隔値に基づいて導出された複数のスペクトルインデックスに等しいインデックスを有するスペクトル係数のみでなく、間隔値に基づいて導出された複数のスペクトルインデックス周辺の所定の範囲内のインデックスを有するスペクトル係数も予測符号化され得る。例えば、図2に示すように、複数の個々のスペクトル係数ではなく、むしろ複数のスペクトル係数グループが予測符号化のために選択されるように、範囲は3とすることができる。
さらに、エンコーダ100は、予測符号化が適用されるスペクトル係数グループ116_1から116_6(または複数の個々のスペクトル係数)と、予測符号化が適用されるスペクトル係数グループ(または複数の個々のスペクトル係数)を隔てているスペクトル係数とが、+/-1スペクトル係数の許容範囲を伴った周期で周期的に交互になるように、予測符号化が適用される、スペクトル係数グループ116_1から116_6(または複数の個々のスペクトル係数)を選択するように構成することができる。+/-1スペクトル係数の許容範囲は、オーディオ信号102の2つの高調波間の距離が、整数の間隔値(スペクトル係数のインデックスまたは番号に関する整数)に等しくなく、むしろその分数または倍数に等しい場合に、必要とされ得る。このことは、矢印122_1から122_6が、対応するスペクトル係数の中央または中央部を必ずしも正確に指していないことから、図2でも分かる。
つまり、オーディオ信号102は、少なくとも2つの高調波信号要素124_1から124_6を含み、エンコーダ100は、オーディオ信号102の少なくとも2つの高調波信号要素124_1から124_6、または少なくとも2つの高調波信号要素124_1から124_6の周辺のスペクトル環境を表す、複数のスペクトル係数グループ116_1から116_6(または個々のスペクトル係数)に対して、予測符号化を選択的に適用するように構成することができる。少なくとも2つの高調波信号要素124_1から124_6の周辺のスペクトル環境は、例えば、+/-1、2、3、4,または5スペクトル要素とすることができる。
その結果、エンコーダ100は、オーディオ信号102の、少なくとも2つの高調波信号要素124_1から124_6、または少なくとも2つの高調波信号要素124_1から124_6のスペクトル環境を表していない、スペクトル係数グループ118_1から118_5(または複数の個々のスペクトル係数)に対して、予測符号化を適用しないように構成することができる。つまり、エンコーダ100は、信号高調波124_1から124_6の間の非トーン性の背景ノイズに属する、複数のスペクトル係数グループ118_1から118_5(または個々のスペクトル係数)に対して、予測符号化を適用しないように構成することができる。
さらに、エンコーダ100は、オーディオ信号102の少なくとも2つの高調波信号要素124_1から124_6の間のスペクトル間隔を示す高調波間隔値であって、オーディオ信号102の少なくとも2つの高調波信号要素124_1から124_6を表す複数の、個々のスペクトル係数またはスペクトル係数グループを示す高調波間隔値を決定するように構成することができる。
さらに、エンコーダ100は、符号化されたオーディオ信号120が、間隔値(例えば、フレーム毎に1つの間隔値)、または(その代わりに)パラメータから間隔値を直接導出することができるパラメータを含むような、符号化されたオーディオ信号120を提供するように構成することができる。
本発明の実施形態は、いずれもが完全にシンクロした形で働くことができるようにエンコーダ(トランスミッタ)100からそれぞれのデコーダ(レシーバ)へ送られた高調波間隔値を、FDPプロセスに導入することによって、FDP手法の前述の2つの課題を取り扱う。前記高調波間隔値は、符号化される予定のフレームと関連付けられている1つまたは複数のスペクトルの瞬間的基本周波数(またはピッチ)のインジケータとしての役割を果たし得、どのスペクトルビン(スペクトル係数)が予測されるものとするかを特定する。より詳細には、基準ピッチ(高調波間隔値によって定義されるように)の整数倍に(インデックス化という点で)位置する高調波信号要素周辺のスペクトル係数のみが、予測の対象となるものとする。図2および図3は、単純な例によって、このピッチ適応型の予測アプローチを説明しており、図3は、MPEG-2 AACにおける最先端の予測器の働きを示しており、高調波グリッド周辺のみで予測するのではなく、ある終了周波数より低いあらゆるスペクトルビンを予測の対象としており、また図2は、高調波間隔グリッドに近い「トーン性の」ビンにのみ予測を行うように統合された一実施形態に係る、修正された同じ予測器を表している。
図2と図3を比較することによって、一実施形態に係る修正の2つの利点が明らかになり、すなわち、(1)予測プロセスに含まれるスペクトルビンがずっと少なく、複雑度を低減する(与えられた例では、ビンの5分の3のみが予測されるため、40%を)、および(2)信号高調波の間の非トーン性の背景ノイズに属するビンは、予測による影響を受けず、これによって予測効率が増加するはずである。
なお、高調波間隔値は、入力信号の実際の瞬間的ピッチに対応している必要は必ずしもなく、それによって予測プロセスの効率の全体的な向上をもたらす場合には、真のピッチの分数または倍数を表すことができる。また、高調波間隔値は、ビンインデックス化またはバンド幅単位の整数倍を反映する必要はなく、前記単位の分数を含み得ることを強調しなければならない。
続いて、MPEGスタイルのオーディオコーダでの好ましい実施態様について記載する。
好ましくは、ピッチ適応型の予測は、MPEG-2 AAC(ISO/IEC 13818-7「Information technology-Part 7:Advanced Audio Coding(AAC)」、2006年)に組み込まれるか、または、AACにおけるのと類似の予測器を利用して、MPEG-H 3Dオーディオコーデック(ISO/IEC 23008-3「Information technology-High efficiency coding,part 3:3D audio」、2015年)に組み込まれる。詳細には、1ビットのフラグを、単独で符号化されない各フレームおよびチャネルについて(単独のフレームチャネルについては、単独性を確実にするために予測をディセーブルにすることができるため、フラグは送信されない)、それぞれのビットストリームに書き込み、および読み出しすることができる。フラグが1に設定された場合、もう8ビットを読み書きすることができる。この8ビットは、与えられたフレームおよびチャネルについての量子化されたバージョンの高調波周波間隔値(例えば、高調波間隔に対するインデックス)を表す。量子化されたバージョンから線形または非線形のいずれかのマッピング関数を用いて導出された間隔値を使用して、図2に示す一実施形態に係る方法で予測プロセスを実行することができる。好ましくは、高調波グリッド周辺の最大距離1.5ビンの範囲内に位置するビンのみが予測の対象となる。例えば、高調波間隔値がビンインデックス47.11にある高調波ラインを示す場合、インデックス46、47および48にあるビンのみが予測される。ただし、前記最大距離は、高周波間隔値に基づいて、すべてのチャネルおよびフレームについて先験的に固定されるか、または各フレームおよびチャネルについて別々に固定されるかのいずれか、異なって規定される可能性がある。
図4は、符号化されたオーディオ信号120を複合化するデコーダ200の概略ブロック図を示す。デコーダ200は、変換領域またはフィルタバンク領域204において、符号化されたオーディオ信号120を復号化するように構成され、デコーダ200は、現在のフレーム208_t0についてのオーディオ信号の、符号化されたスペクトル係数206_t0_f1から206_t0_f6、および少なくとも1つの前のフレーム208_t-1についての符号化されたスペクトル係数206_t-1_f0から206_t-1_f6を得るために、符号化されたオーディオ信号120を解析するように構成され、またデコーダ200は、少なくとも1つの符号化されたスペクトル係数によって隔てられている複数の、個々の符号化されたスペクトル係数または符号化されたスペクトル係数グループに対して、予測復号化を選択的に適用するように構成される。
実施形態において、デコーダ200は、例えば、少なくとも1つの符号化されたスペクトル係数によって隔てられている、2つの個々の符号化されたスペクトル係数に対してなど、少なくとも1つの符号化されたスペクトル係数によって隔てられている複数の個々の符号化されたスペクトル係数に対して、予測復号化を適用するように構成することができる。さらに、デコーダ200は、例えば、少なくとも1つの符号化されたスペクトル係数によって隔てられている、符号化された2つのスペクトル係数グループに対してなど、少なくとも1つの符号化されたスペクトル係数によって隔てられている、符号化された複数のスペクトル係数グループ(グループのそれぞれは、少なくとも2つの符号化されたスペクトル係数を含む)に対して、予測復号化を適用するように構成することができる。さらに、デコーダ200は、例えば、少なくとも1つの符号化されたスペクトル係数によって隔てられている、少なくとも1つの個々の符号化されたスペクトル係数および符号化された少なくとも1つのスペクトル係数グループに対してなど、少なくとも1つの符号化されたスペクトル係数によって隔てられている複数の、個々の符号化されたスペクトル係数および/または符号化されたスペクトル係数グループに対して、予測復号化を適用するように構成することができる。
図4に示す例では、デコーダ200は、現在のフレーム208_t0についての6つの符号化されたスペクトル係数206_t0_f1から206_t0_f6、および前のフレーム208_t-1についての6つの符号化されたスペクトル係数206_t-1_f1から206_t-1_f6を決定するように構成される。その結果、デコーダ200は、現在のフレームの個々の符号化された第2のスペクトル係数206_t0_f2に対して、および現在のフレーム208_t0の符号化された第4および第5のスペクトル係数206_t0_f4および206_t0_f5からなる符号化されたスペクトル係数グループに対して、予測復号化を選択的に適用するように構成される。分かるように、個々の符号化された第2のスペクトル係数206_t0_f2と、符号化された第4および第5のスペクトル係数206_t0_f4および206_t0_f5からなる符号化されたスペクトル係数グループは、符号化された第3のスペクトル係数206_t0_f3によって互いに隔てられている。
なお、本明細書において「選択的に」という用語は、選択された符号化されたスペクトル係数に対して(のみ)、予測復号化を適用することをいう。つまり、予測復号化は、すべての符号化されたスペクトル係数に対して適用されるのではなく、むしろ、選択された個々の符号化されたスペクトル係数または符号化されたスペクトル係数グループ、つまり少なくとも1つの符号化されたスペクトル係数によって互いに隔てられている、選択された、個々の符号化されたスペクトル係数および/または符号化されたスペクトル係数グループに対してのみ適用される。つまり、予測復号化は、選択された複数の、個々の符号化されたスペクトル係数または符号化されたスペクトル係数グループを隔てている、少なくとも1つの符号化されたスペクトル係数に対して適用されない。
実施形態において、デコーダ200は、個々の符号化されたスペクトル係数206_t0_f2またはスペクトル係数グループ206_t0_f4および206_t0_f5を隔てている、少なくとも1つの符号化されたスペクトル係数206_t0_f3に対して、予測復号化を適用しないように構成することができる。
デコーダ200は、予測復号化が適用される予定のスペクトル係数206_t0_f2、2016_t0_f4および206_t0_f5についての量子化された予測誤差、および予測符号化が適用されない予定の少なくとも1つのスペクトル係数についての量子化されたスペクトル係数206_t0_f3を得るために、符号化されたスペクトル係数をエントロピ復号化するように構成することができる。その結果、デコーダ200は、現在のフレーム208_t0について、予測復号化が適用される符号化されたスペクトル係数206_t0_f2、206_t0_f4および206_t0_f5と関連付けられている、復号化されたスペクトル係数を得るために、複数の、個々の予測されたスペクトル係数210_t0_f2または予測されたスペクトル係数グループ210_t0_f4および210_t0_f5に対して、量子化された予測誤差を適用するように構成することができる。
例えば、デコーダ200は、符号化された第2のスペクトル係数206_t0_f2と関連付けられている、復号化された第2のスペクトル係数を得るために、量子化された第2のスペクトル係数206_t0_f2についての量子化された第2の予測誤差を得るように、そして予測された第2のスペクトル係数210_t0_f2に対して、量子化された第2の予測誤差を適用するように構成することができ、デコーダ200は、符号化された第4のスペクトル係数206_t0_f4と関連付けられている復号化された第4のスペクトル係数を得るために、量子化された第4のスペクトル係数206_t0_f4についての量子化された第4の予測誤差を得るように、そして予測された第4のスペクトル係数210_t0_f4に対して、量子化された第4の予測誤差を適用するように構成することができ、デコーダ200は、符号化された第5のスペクトル係数206_t0_f5と関連付けられている復号化された第5のスペクトル係数を得るために、量子化された第5のスペクトル係数206_t0_f5についての量子化された第5の予測誤差を得るように、そして予測された第5のスペクトル係数210_t0_f5に対して、量子化された第5の予測誤差を適用するように構成することができる。
さらに、デコーダ200は、現在のフレーム208_t0についての複数の、個々の予測されたスペクトル係数210_t0_f2または予測されたスペクトル係数グループ210_t0_f4および210_t0_f5を、前のフレーム208_t-1の、対応する複数の、個々の符号化されたスペクトル係数206_t-1_f2(例えば、複数の個々の符号化されたスペクトル係数206_t-1_f2と関連付けられている、複数の先に復号化されたスペクトル係数を用いて)または符号化されたスペクトル係数グループ206_t-1_f4および206_t-1_f5(例えば、符号化されたスペクトル係数の206_t-1_f4および206_t-1_f5と関連付けられている、先に復号化されたスペクトル係数グループを用いて)に基づいて決定するように構成することができる。
例えば、デコーダ200は、現在のフレーム208_t0の予測された第2のスペクトル係数210_t0_f2を、前のフレーム208_t-1の、符号化された第2のスペクトル係数206_t-1_f2と関連付けられている、先に復号化された(量子化された)第2のスペクトル係数を用いて、現在のフレーム208_t0の予測された第4のスペクトル係数210_t0_f4を、前のフレーム208_t-1の、符号化された第4のスペクトル係数206_t-1_f4と関連付けられている、先に復号化された(量子化された)第4のスペクトル係数を用いて、また、現在のフレーム208_t0の予測された第5のスペクトル係数210_t0_f5を、前のフレーム208_t-1の、符号化された第5のスペクトル係数206_t-1_f5と関連付けられている、先に復号化された(量子化された)第5のスペクトル係数を用いて決定するように構成することができる。
さらに、デコーダ200は、間隔値から予測係数を導出するように構成することができ、デコーダ200は、現在のフレーム208_t0についての複数の、個々の予測されたスペクトル係数210_t0_f2または予測されたスペクトル係数グループ210_t0_f4および210_t0_f5を、少なくとも2つの前のフレーム208_t-1および208_t-2の、対応する複数の、先に複合化された個々のスペクトル係数または先に複合化されたスペクトル係数グループを用いて、および導出された予測係数を用いて計算するように構成することができる。
例えば、デコーダ200は、符号化された第2のスペクトル係数206_t0_f2についての予測係数212_f2および214_f2を、間隔値から導出し、符号化された第4のスペクトル係数206_t0_f4についての予測係数212_f4および214_f4を、間隔値から導出するように、そして符号化された第5のスペクトル係数206_t0_f5についての予測係数212_f5および214_f5を、間隔値から導出するように構成することができる。
なお、デコーダ200は、予測複合化が適用される複数の、個々の符号化されたスペクトル係数または符号化されたスペクトル係数グループについての、複数の、個々の量子化されたスペクトル係数または量子化されたスペクトル係数グループの代わりに、量子化された予測誤差を得るために、符号化されたオーディオ信号120を複合化するように構成することができる。
さらに、デコーダ200は、量子化された予測誤差がそれのために得られる、符号化されたスペクトル係数206_t0_f2または符号化されたスペクトル係数グループ206_t0_f4および206_t0_f5と、量子化されたスペクトル係数がそれのために得られる、符号化されたスペクトル係数206_t0_f3または符号化されたスペクトル係数グループとが、交互になるように、複数の、個々のスペクトル係数またはスペクトル係数グループを隔てている、量子化されたスペクトル係数を得るために、符号化されたオーディオ信号120を復号化するように構成することができる。
デコーダ200は、復号化されたオーディオ信号220を、予測復号化が適用される符号化されたスペクトル係数206_t0_f2、206_t0_f4および206_t0_f5と関連付けられている、復号化されたスペクトル係数を用いて、ならびに予測復号化が適用されない符号化されたスペクトル係数206_t0_f1、206_t0_f3および206_t0_f6と関連付けられている、エントロピ復号化されたスペクトル係数を用いて提供するように構成することができる。
実施形態において、デコーダ200は、間隔値を得るように構成することができ、デコーダ200は、予測復号化が適用される複数の、個々の符号化されたスペクトル係数206_t0_f2または符号化されたスペクトル係数グループ206_t0_f4および206_t0_f5を、間隔値に基づいて選択するように構成することができる。
対応するエンコーダ100の記述と関連してすでに上述したように、間隔値は、例えば、オーディオ信号の2つの特徴周波数の間の間隔(または距離)とすることができる。さらに、間隔値は、オーディオ信号の2つの特徴周波数の間の間隔を近似する、整数のスペクトル係数(またはスペクトル係数のインデックス)とすることができる。もちろん、間隔値は、オーディオ信号の2つの特徴周波数の間の間隔を表す、整数のスペクトル係数の分数もしくは倍数とすることもできる。
デコーダ200は、予測復号化のために、間隔値によって定義された高調波グリッドによりスペクトル的に配置された、個々のスペクトル係数またはスペクトル係数グループを選択するように構成することができる。間隔値によって定義された高調波グリッドは、オーディオ信号102の中の高調波の周期的なスペクトル分布(等距離間隔)を表し得る。つまり、間隔値によって定義された高調波グリッドは、オーディオ信号102の高調波の等距離間隔を表す一連の間隔値とすることができる。
さらに、デコーダ200は、そのスペクトルインデックスが、予測符号化のために、間隔値に基づいて導出された複数のスペクトルインデックスと、等しいかまたはその周辺の範囲(例えば、所定の、また可変の範囲)内に収まる、スペクトル係数(例えば、そうしたスペクトル係数のみ)を選択するように構成することができる。その結果、デコーダ200は、間隔値に応じて範囲の幅を設定するように構成することができる。
実施形態において、符号化されたオーディオ信号は、間隔値またはその符号化されたバージョンを含み(例えば、それから間隔値を直接導出することができるパラメータ)、デコーダ200は、間隔値を得るために、符号化されたオーディオ信号から間隔値またはその符号化されたバージョンを抽出するように構成することができる。
代替方法として、デコーダ200は、それ自体で間隔値を決定するように、すなわち、符号化されたオーディオ信号が間隔値を含まないように、構成することができる。その場合、デコーダ200は、(オーディオ信号102を表す符号化されたオーディオ信号120の)瞬間的基本周波数を決定するように、そして瞬間的基本周波数またはその分数もしくは倍数から間隔値を導出するように構成することができる。
実施形態において、デコーダ200は、予測復号化が適用される複数の、個々のスペクトル係数またはスペクトル係数グループと、予測復号化が適用される複数の、個々のスペクトル係数またはスペクトル係数グループを隔てている、スペクトル係数とが、+/-1スペクトル係数の許容範囲を伴った周期で周期的に交互になるように、予測復号化が適用される複数の、個々のスペクトル係数またはスペクトル係数グループを選択するように構成することができる。
実施形態において、符号化されたオーディオ信号120によって表されたオーディオ信号102は、少なくとも2つの高調波信号要素を含み、デコーダ200は、オーディオ信号102の少なくとも2つの高調波信号要素または少なくとも2つの高調波信号要素の周辺のスペクトル環境を表す複数の、個々の符号化されたスペクトル係数206_t0_f2または符号化されたスペクトル係数グループ206_t0_f4および206_t0_f5に対して、予測復号化を選択的に適用するように構成される。少なくとも2つの高調波信号要素の周辺のスペクトル環境は、例えば、+/-1、2、3、4,または5スペクトル要素とすることができる。
その結果、デコーダ200は、少なくとも2つの高調波信号要素を特定するように、そして特定された高調波信号要素と関連付けられている、例えば、特定された高調波信号要素を表すか、または特定された高調波信号要素を囲む)複数の、個々の符号化されたスペクトル係数206_t0_f2または符号化されたスペクトル係数グループ206_t0_f4および206_t0_f5に対して、予測復号化を選択的に適用するように構成することができる。
代替方法として、符号化されたオーディオ信号120は、少なくとも2つの高調波信号要素を特定する情報(例えば、間隔値)を含み得る。その場合、デコーダ200は、特定された高調波信号要素と関連付けられている、例えば、特定された高調波信号要素を表すか、または特定された高調波信号要素を囲む)複数の、個々の符号化されたスペクトル係数206_t0_f2または符号化されたスペクトル係数グループ206_t0_f4および206_t0_f5に対して、予測復号化を選択的に適用するように構成することができる。
上記の代替方法の両方において、デコーダ200は、オーディオ信号102の少なくとも2つの高調波信号要素または少なくとも2つの高調波信号要素のスペクトル環境を表していない複数の、個々の符号化されたスペクトル係数206_t0_f3、206_t0_f1および206_t0_f6、または符号化されたスペクトル係数グループに対して、予測復号化を適用しないように構成することができる。
つまり、デコーダ200は、オーディオ信号102の信号高調波間の非トーン性の背景ノイズに属する複数の、個々の符号化されたスペクトル係数206_t0_f3、206_t0_f1、206_t0_f6、または符号化されたスペクトル係数グループに対して、予測復号化を適用しないように構成することができる。
図5は、一実施形態に係る、オーディオ信号を符号化する方法300のフローチャートを示す。方法300は、現在のフレームおよび少なくとも1つの前のフレームについてのオーディオ信号のスペクトル係数を決定するステップ302と、少なくとも1つのスペクトル係数によって隔てられている複数の、個々のスペクトル係数またはスペクトル係数グループに対して、予測符号化を選択的に適用するステップ304を含む。
図6は、一実施形態に係る、符号化されたオーディオ信号を復号化する方法400のフローチャートを示す。方法400は、現在のフレームおよび少なくとも1つの前のフレームについてのオーディオ信号の符号化されたスペクトル係数を得るために、符号化されたオーディオ信号を解析するステップ402と、少なくとも1つの符号化されたスペクトル係数によって隔てられている複数の、個々の符号化されたスペクトル係数または符号化されたスペクトル係数グループに対して、予測復号化を選択的に適用するステップ404を含む。
いくつかの態様を、一装置との関連で記載してきたが、これらの態様は、対応する方法の記述も表していることは明らかであり、ブロックまたはデバイスが、方法ステップまたは方法ステップの特徴に対応する。同様に、方法ステップとの関連で記載された態様は、対応する装置の対応するブロックまたはアイテムまたは特徴の記述も表している。方法ステップの一部またはすべては、例えばマイクロプロセッサ、プログラマブルコンピュータまたは電子回路のようなハードウェア装置によって(または、を用いて)実行され得る。いくつかの実施形態において、1つまたは複数の最も重要な方法ステップが、こうした装置によって実行され得る。
本発明に関する符号化されたオーディオ信号は、デジタル記憶媒体に記憶することができ、またはインターネットなどの無線伝送媒体もしくは有線伝送媒体などの伝送媒体上で伝送することができる。
特定の実施要件に応じて、本発明の実施形態は、ハードウェアまたはソフトウェアで実施することができる。例えば、フロッピディスク、DVD、ブルーレイ、CD、ROM、PROM、EPROM、EEPROMまたはフレッシュメモリなど、その上に記憶された電子的に読み取り可能な制御信号を有し、それぞれの方法が実行されるようにプログラマブル・コンピュータ・システムと連携する(または連携可能な)、デジタル記憶媒体を用いて実施することができる。そのため、デジタル記憶媒体は、コンピュータ読み取り可能であり得る。
本発明に係るいくつかの実施形態は、電子的に読み取り可能な制御信号を有するデータキャリアを含み、データキャリアは、本明細書に記載された方法の1つが実行されるように、プログラマブル・コンピュータ・システムと連携することができる。
一般に、本発明の実施形態は、プログラムコードを伴ったコンピュータプログラム製品として実施することができ、プログラムコードは、そのコンピュータプログラム製品をコンピュータ上で実行させたときに、方法の1つを実行するために働く。プログラムコードは、例えば機械読み取り可能なキャリア上に記憶され得る。
別の実施形態は、機械読み取り可能なキャリア上に記憶された、本明細書に記載された方法の1つを実行するためのコンピュータプログラムを含む。
つまり、本発明に関する方法の実施形態は、結果として、そのコンピュータプログラムをコンピュータ上で実行させたときに、本明細書に記載された方法の1つを実行するためのプログラムコードを有するコンピュータプログラムである。
本発明に関する方法のさらなる実施形態は、結果として、本明細書に記載された方法の1つを実行するためのコンピュータプログラムをその上に含むデータキャリア(またはデジタル記憶媒体、またはコンピュータ読み取り可能な媒体)である。データキャリア、デジタル記憶媒体または被記録媒体は、通常は、有形および/または非遷移性である。
本発明に関する方法のさらなる実施形態は、結果として、本明細書に記載された方法の1つを実行するためのコンピュータプログラムを表すデータストリームまたは一連の信号である。データストリームまたは一連の信号は、例えばインターネットを介した、データ通信接続を介して伝送されるように、例えば構成され得る。
さらなる実施形態は、本明細書に記載された方法の1つを実行するように構成または適合された処理手段、例えばコンピュータ、またはプログラマブル・ロジック・デバイスを含む。
さらなる実施形態は、本明細書に記載された方法の1つを実行するためのコンピュータプログラムをその上にインストールしたコンピュータを含む。
本発明に係るさらなる実施形態は、本明細書に記載された方法の1つを実行するためのコンピュータプログラムをレシーバへ送信(例えば、電子的または光学的に)するように構成された装置またはシステムを含む。レシーバは、例えば、コンピュータ、モバイルデバイス、メモリデバイスなどであり得る。装置またはシステムは、例えば、コンピュータプログラムをレシーバへ送信するためのファイルサーバを含み得る。
いくつかの実施形態において、プログラマブル・ロジック・デバイス(例えば、フィールド・プログラマブル・ゲート・アレイ)が、本明細書に記載された方法の機能性の一部またはすべてを実行するために用いられ得る。いくつかの実施形態において、本明細書に記載され方法の1つを実行するために、フィールド・プログラマブル・ゲート・アレイは、マイクロプロセッサと連携し得る。一般に、方法は、任意のハードウェア装置によって実行されることが好ましい。
本明細書に記載された装置は、ハードウェア装置を用いて、またはコンピュータを用いて、またはハードウェア装置およびコンピュータの組合せを用いて実施され得る。
本明細書に記載された方法は、ハードウェア装置を用いて、またはコンピュータを用いて、またはハードウェア装置およびコンピュータの組合せを用いて実行され得る。
上記の実施形態は、本発明の原理についての例示に過ぎない。本明細書に記載された構成および詳細の修正および変形が、他の当業者にとって明らかであろうことが分かる。結果として、本明細書の実施形態の記述および説明によって表された特定の詳細によってではなく、添付の特許請求の範囲によってのみ制限されることを意図している。

Claims (50)

  1. オーディオ信号(102)を符号化するエンコーダ(100)であって、前記エンコーダ(100)は、変換領域またはフィルタバンク領域(104)において、前記オーディオ信号(102)を符号化するように構成され、前記エンコーダは、現在のフレーム(108_t0)および少なくとも1つの前のフレーム(108_t-1)についての前記オーディオ信号(102)のスペクトル係数(106_t0_f1:106_t0_f6;106_t-1_f1:106_t-1_f6)を決定するように構成され、前記エンコーダ(100)は、複数の、個々のスペクトル係数(106_t0_f2)またはスペクトル係数グループ(106_t0_f4,106_t0_f5)に対して、予測符号化を選択的に適用するように構成され、前記エンコーダ(100)は、間隔値を決定するように構成され、前記エンコーダ(100)は、予測符号化が適用される前記複数の、個々のスペクトル係数(106_t0_f2)またはスペクトル係数グループ(106_t0_f4,106_t0_f5)を、前記間隔値に基づいて選択するように構成される、エンコーダ。
  2. 前記間隔値は、高調波間の間隔を表す高調波間隔値である、請求項1に記載のエンコーダ(100)。
  3. 前記複数の、個々のスペクトル係数(106_t0_f2)またはスペクトル係数グループ(106_t0_f4,106_t0_f5)は、少なくとも1つのスペクトル係数(106_t0_f3)によって隔てられている、請求項1または2に記載のエンコーダ(100)。
  4. 前記予測符号化は、前記個々のスペクトル係数(106_t0_f2)または前記スペクトル係数グループ(106_t0_f4,106_t0_f5)を隔てている、前記少なくとも1つのスペクトル係数(106_t0_f3)に適用されない、請求項3に記載のエンコーダ(100)。
  5. 前記エンコーダ(100)は、前記現在のフレームの複数の、個々の予測されたスペクトル係数(110_t0_f2)または予測されたスペクトル係数グループ(110_t0_f4,110_t0_f5)と、前記現在のフレーム(108_t0)の前記複数の、個々のスペクトル係数(106_t0_f2)またはスペクトル係数グループ(106_t0_f4,106_t0_f5)との間の予測誤差を符号化することによって、前記現在のフレーム(108_t0)の前記複数の、個々のスペクトル係数(106_t0_f2)または前記スペクトル係数グループ(106_t0_f4,106_t0_f5)を、予測符号化するように構成される、請求項1から4のいずれか一項に記載のエンコーダ(100)。
  6. 前記エンコーダ(100)は、前記間隔値から予測係数を導出するように構成され、前記エンコーダ(100)は、前記現在のフレーム(108_t0)についての前記複数の、個々の予測されたスペクトル係数(110_t0_f2)または予測されたスペクトル係数グループ(110_t0_f4,110_t0_f5)を、少なくとも2つの前のフレーム(108_t-2,108_t-1)の、対応する複数の、個々のスペクトル係数(106_t-2_f2,106_t-1_f2)または対応するスペクトル係数グループ(106_t-2_f4,106_t-1_f4;106_t-2_f5,106_t-1_f5)を用いて、および前記導出された予測係数を用いて計算するように構成される、請求項5に記載のエンコーダ(100)。
  7. 前記エンコーダ(100)は、前記現在のフレーム(108_t0)についての前記複数の、個々の予測されたスペクトル係数(110_t0_f2)または予測されたスペクトル係数グループ(110_t0_f4,110_t0_f4)を、前記前のフレーム(108_t-1)の、対応する量子化されたバージョンの前記複数の、個々のスペクトル係数(106_t-1_f2)または前記スペクトル係数グループ(106_t-1_f4,106_t-1_f5)を用いて決定するように構成される、請求項5に記載のエンコーダ(100)。
  8. 前記エンコーダ(100)は、前記間隔値から予測係数を導出するように構成され、前記エンコーダ(100)は、前記現在のフレーム(108_t0)についての前記複数の、個々の予測されたスペクトル係数(110_t0_f2)または予測されたスペクトル係数グループ(110_t0_f4,110_t0_f5)を、少なくとも2つの前のフレーム(108_t-2,108_t-1)の、対応する量子化されたバージョンの前記複数の、個々のスペクトル係数(106_t-2_f2,106_t-1_f2)または前記スペクトル係数グループ(106_t-2_f4,106_t-1_f4;106_t-2_f5,106_t-1_f5)を用いて、および前記導出された予測係数を用いて計算するように構成される、請求項7に記載のエンコーダ(100)。
  9. 前記エンコーダ(100)は、符号化されたオーディオ信号(120)を提供するように構成され、前記符号化されたオーディオ信号(120)は、前記予測係数も、その符号化されたバージョンも含まない、請求項6または8に記載のエンコーダ(100)。
  10. 前記エンコーダ(100)は、符号化されたオーディオ信号(120)を提供するように構成され、前記符号化されたオーディオ信号(120)は、予測符号化が適用される前記複数の、個々のスペクトル係数またはスペクトル係数グループについての量子化されたバージョンの前記複数の、個々のスペクトル係数(106_t0_f2)または前記スペクトル係数グループ(106_t0_f4,106_t0_f5)の代わりに、量子化されたバージョンの前記予測誤差を含む、請求項5から9のいずれか一項に記載のエンコーダ(100)。
  11. 前記符号化されたオーディオ信号(120)は、その量子化されたバージョンの前記予測誤差が前記符号化されたオーディオ信号(120)に含まれるスペクトル係数(106_t0_f2)またはスペクトル係数グループ(106_t0_f4,106_t0_f5)と、予測符号化を用いずにその量子化されたバージョンが提供されるスペクトル係数(106_t0_f1,106_t0_f3,106_t0_f6)またはスペクトル係数グループとが、交互になるように、予測符号化が適用されない量子化されたバージョンの前記スペクトル係数(106_t0_f3)を含む、請求項10に記載のエンコーダ(100)。
  12. 前記エンコーダ(100)は、前記オーディオ信号(102)の瞬間的基本周波数を決定するように、そして前記瞬間的基本周波数またはその分数もしくは倍数から前記間隔値を導出するように構成される、請求項1から11のいずれか一項に記載のエンコーダ(100)。
  13. 前記エンコーダ(100)は、予測符号化のために、前記間隔値によって定義された高調波グリッドによりスペクトル的に配置された、個々のスペクトル係数またはスペクトル係数グループ(116_1:116_6)を選択するように構成される、請求項1から12のいずれか一項に記載のエンコーダ(100)。
  14. 前記エンコーダ(100)は、そのスペクトルインデックスが、予測符号化のために、前記間隔値に基づいて導出された複数のスペクトルインデックスと、等しいかまたはその周辺の範囲内に収まる、スペクトル係数を選択するように構成される、請求項1から12のいずれか一項に記載のエンコーダ(100)。
  15. 前記エンコーダ(100)は、前記間隔値に応じて前記範囲の幅を設定するように構成される、請求項14に記載のエンコーダ(100)。
  16. 前記エンコーダ(100)は、予測符号化が適用される前記複数の、個々のスペクトル係数またはスペクトル係数グループ(116_1:116_6)と、予測符号化が適用されない前記スペクトル係数またはスペクトル係数グループ(118_1:118_5)とが、+/-1スペクトル係数の許容範囲を伴った周期で周期的に交互になるように、予測符号化が適用される前記複数の、個々のスペクトル係数またはスペクトル係数グループ(116_1:116_6)を選択するように構成される、請求項1から15のいずれか一項に記載のエンコーダ(100)。
  17. 前記オーディオ信号(102)は、少なくとも2つの高調波信号要素(124_1:124_6)を含み、前記エンコーダ(100)は、前記オーディオ信号(102)の前記少なくとも2つの高調波信号要素(124_1:124_6)または前記少なくとも2つの高調波信号要素(124_1:124_6)の周辺のスペクトル環境を表す複数の、個々のスペクトル係数またはスペクトル係数グループ(116_1:116_6)に対して、予測符号化を選択的に適用するように構成される、請求項1から16のいずれか一項に記載のエンコーダ(100)。
  18. 前記エンコーダ(100)は、前記オーディオ信号(102)の前記少なくとも2つの高調波信号要素(124_1:124_6)または前記少なくとも2つの高調波信号要素(124_1:124_6)のスペクトル環境を表していない複数の、個々のスペクトル係数またはスペクトル係数グループ(118_1:118_5)に対して、予測符号化を適用しないように構成される、請求項17に記載のエンコーダ(100)。
  19. 前記エンコーダ(100)は、信号高調波(124_1:124_6)の間の非トーン性の背景ノイズに属する複数の、個々のスペクトル係数またはスペクトル係数グループ(118_1:118_5)に対して、予測符号化を適用しないように構成される、請求項17または18に記載のエンコーダ(100)。
  20. 前記間隔値は、前記オーディオ信号(102)の前記少なくとも2つの高調波信号要素(124_1:124_6)間のスペクトル間隔を示す高調波間隔値であり、前記高調波間隔値は、前記オーディオ信号(102)の前記少なくとも2つの高調波信号要素(124_1:124_6)を表す複数の、個々のスペクトル係数またはスペクトル係数グループ(116_1:116_6)を示す、請求項17から19のいずれか一項に記載のエンコーダ(100)。
  21. 前記エンコーダ(100)は、符号化されたオーディオ信号(120)を提供するように構成され、前記エンコーダ(100)は、前記符号化されたオーディオ信号(120)に前記間隔値またはその符号化されたバージョンを含むように構成される、請求項1から20のいずれか一項に記載のエンコーダ(100)。
  22. 前記スペクトル係数は、スペクトルビンである、請求項1から21のいずれか一項に記載のエンコーダ(100)。
  23. 符号化されたオーディオ信号(120)を複合化するデコーダ(200)であって、前記デコーダ(200)は、変換領域またはフィルタバンク領域(204)において、前記符号化されたオーディオ信号(120)を復号化するように構成され、前記デコーダ(200)は、現在のフレーム(208_t0)および少なくとも1つの前のフレーム(208_t-1)についての前記オーディオ信号(120)の符号化されたスペクトル係数(206_t0_f1:206_t0_f6;206_t-1_f1:206_t-1_f6)を得るために、前記符号化されたオーディオ信号(120)を解析するように構成され、前記デコーダ(200)は、複数の、個々の符号化されたスペクトル係数(206_t0_f2)または符号化されたスペクトル係数グループ(206_t0_f4,206_t0_f5)に対して、予測復号化を選択的に適用するように構成され、前記デコーダ(200)は、間隔値を得るように構成され、前記デコーダ(200)は、予測復号化が適用される前記複数の、個々の符号化されたスペクトル係数(206_t0_f2)または符号化されたスペクトル係数グループ(206_t0_f4,206_t0_f5)を、前記間隔値に基づいて選択するように構成される、デコーダ。
  24. 前記間隔値は、高調波間の間隔を表す高調波間隔値である、請求項23に記載のデコーダ(200)。
  25. 前記複数の、個々の符号化されたスペクトル係数(206_t0_f2)または符号化されたスペクトル係数グループ(206_t0_f4,206_t0_f5)は、少なくとも1つの符号化されたスペクトル係数(206_t0_f3)によって隔てられている、請求項24に記載のデコーダ(200)。
  26. 前記予測複合化は、前記個々のスペクトル係数(206_t0_f2)または前記スペクトル係数グループ(206_t0_f4,206_t0_f5)を隔てている、少なくとも1つのスペクトル係数(206_t0_f3)に適用されない、請求項25に記載のデコーダ(200)。
  27. 前記デコーダ(200)は、予測複合化が適用される予定の前記スペクトル係数(206_t0_f2,206_t0_f4,206_t0_f5)についての量子化された予測誤差、および予測複合化が適用されない予定のスペクトル係数(206_t0_f3)についての量子化されたスペクトル係数を得るために、前記符号化されたスペクトル係数をエントロピ復号化するように構成され、
    前記デコーダ(200)は、前記現在のフレーム(208_t0)について、予測複合化が適用される前記符号化されたスペクトル係数(206_t0_f2,206_t0_f4,206_t0_f5)と関連付けられている復号化されたスペクトル係数を得るために、複数の、個々の予測されたスペクトル係数(210_t0_f2)または予測されたスペクトル係数グループ(210_t0_f4,210_t0_f5)に対して、前記量子化された予測誤差を適用するように構成される、請求項24から26のいずれか一項に記載のデコーダ(200)。
  28. 前記デコーダ(200)は、前記現在のフレーム(208_t0)についての前記複数の、個々の予測されたスペクトル係数(210_t0_f2)または予測されたスペクトル係数グループ(210_t0_f4,210_t0_f5)を、前記前のフレーム(208_t-1)の、対応する複数の、前記個々の符号化されたスペクトル係数(206_t-1_f2)または符号化されたスペクトル係数グループ(206_t-1_f4,206_t-1_f5)に基づいて決定するように構成される、請求項27に記載のデコーダ(200)。
  29. 前記デコーダ(200)は、前記間隔値から予測係数を導出するように構成され、前記デコーダ(200)は、前記現在のフレーム(208_t0)についての前記複数の、個々の予測されたスペクトル係数(210_t0_f2)または予測されたスペクトル係数グループ(210_t0_f4,210_t0_f5)を、少なくとも2つの前のフレームの、対応する複数の、先に複合化された個々のスペクトル係数または先に複合化されたスペクトル係数グループを用いて、および前記導出された予測係数を用いて計算するように構成される、請求項28に記載のデコーダ(200)
  30. 前記デコーダ(200)は、予測複合化が適用される前記複数の、個々の符号化されたスペクトル係数(206_t0_f2)または符号化されたスペクトル係数グループ(206_t0_f4,206_t0_f5)についての複数の、個々の量子化されたスペクトル係数または量子化されたスペクトル係数グループの代わりに、量子化された予測誤差を得るために、前記符号化されたオーディオ信号(120)を複合化するように構成される、請求項24から29のいずれか一項に記載のデコーダ(200)。
  31. 前記デコーダは、量子化された予測誤差がそれのために得られる、符号化されたスペクトル係数(206_t0_f2)または符号化されたスペクトル係数グループ(206_t0_f4,206_t0_f5)と、量子化されたスペクトル係数がそれのために得られる、符号化されたスペクトル係数(206_t0_f3)または符号化されたスペクトル係数グループとが、交互になるように、予測符号化が適用されない符号化されたスペクトル係数(206_t0_f3)についての量子化されたスペクトル係数を得るために、前記符号化されたオーディオ信号(120)を復号化するように構成される、請求項30に記載のデコーダ(200)。
  32. 前記デコーダ(200)は、予測符号化のために、前記間隔値によって定義された高調波グリッドによりスペクトル的に配置された、個々のスペクトル係数(206_t0_f2)またはスペクトル係数グループ(206_t0_f4,206_t0_f5)を選択するように構成される、請求項22から29のいずれか一項に記載のデコーダ(200)。
  33. 前記デコーダ(200)は、そのスペクトルインデックスが、予測復号化のために、前記間隔値に基づいて導出された複数のスペクトルインデックスと、等しいかまたは周辺の範囲内に収まる、スペクトル係数を選択するように構成される、請求項24から32のいずれか一項に記載のデコーダ(200)。
  34. 前記デコーダ(200)は、前記間隔値に応じて前記範囲の幅を設定する、請求項33に記載のデコーダ(200)。
  35. 前記符号化されたオーディオ信号(120)は、前記間隔値またはその符号化されたバージョンを含み、前記デコーダ(200)は、前記間隔値を得るために、前記符号化されたオーディオ信号(120)から前記間隔値または前記その符号化されたバージョンを抽出するように構成される、請求項24から34のいずれか一項に記載のデコーダ(200)。
  36. 前記デコーダ(200)は、前記間隔値を決定するように構成される、請求項24から34のいずれか一項に記載のデコーダ(200)。
  37. 前記デコーダ(200)は、瞬間的基本周波数を決定するように、そして前記瞬間的基本周波数またはその分数もしくは倍数から前記間隔値を導出するように構成される、請求項36に記載のデコーダ(200)。
  38. 前記デコーダ(200)は、予測復号化が適用される前記複数の、個々のスペクトル係数(206_t0_f2)またはスペクトル係数グループ(206_t0_f4、206_t0_f5)と、予測復号化が適用されない前記スペクトル係数(206_t0_f3)とが、+/-1スペクトル係数の許容範囲を伴った周期で周期的に交互になるように、予測復号化が適用される前記複数の、個々のスペクトル係数(206_t0_f2)またはスペクトル係数グループ(206_t0_f4、206_t0_f5)を選択するように構成される、請求項24から37のいずれか一項に記載のデコーダ(200)。
  39. 前記符号化されたオーディオ信号(120)によって表された前記オーディオ信号(102)は、少なくとも2つの高調波信号要素(124_1:124_6)を含み、前記デコーダ(200)は、前記オーディオ信号(102)の前記少なくとも2つの高調波信号要素(124_1:124_6)または前記少なくとも2つの高調波信号要素(124_1:124_6)の周辺のスペクトル環境を表す複数の、個々の符号化されたスペクトル係数または符号化されたスペクトル係数グループに対して、予測復号化を選択的に適用するように構成される、請求項24から38のいずれか一項に記載のデコーダ(200)。
  40. 前記デコーダ(200)は、前記少なくとも2つの高調波信号要素(124_1:124_6)を特定するように、そして前記特定された高調波信号要素(124_1:124_6)と関連付けられている複数の、個々の符号化されたスペクトル係数または符号化されたスペクトル係数グループに対して、予測復号化を選択的に適用するように構成される、請求項39に記載のデコーダ(200)。
  41. 前記符号化されたオーディオ信号(120)は、前記間隔値またはその符号化されたバージョンを含み、前記間隔値は、前記少なくとも2つの高調波信号要素(124_1:124_6)を特定し、前記デコーダ(200)は、前記特定された高調波信号要素(124_1:124_6)と関連付けられている複数の、個々の符号化されたスペクトル係数または符号化されたスペクトル係数グループに対して、予測復号化を選択的に適用するように構成される、請求項39に記載のデコーダ(200)。
  42. 前記デコーダ(200)は、前記オーディオ信号の前記少なくとも2つの高調波信号要素(124_1:124_6)または前記少なくとも2つの高調波信号要素(124_1:124_6)のスペクトル環境を表していない複数の、個々の符号化されたスペクトル係数または符号化されたスペクトル係数グループに対して、予測復号化を適用しないように構成される、請求項39から41のいずれか一項に記載のデコーダ(200)。
  43. 前記デコーダ(200)は、前記オーディオ信号の信号高調波(124_1:124_6)の間の非トーン性の背景ノイズに属する複数の、個々の符号化されたスペクトル係数または符号化されたスペクトル係数グループに対して、予測復号化を適用しないように構成される、請求項39から42のいずれか一項に記載のデコーダ(200)。
  44. 前記符号化されたオーディオ信号(120)は、前記間隔値またはその符号化されたバージョンを含み、前記間隔値は、高調波間隔値であり、前記高調波間隔値は、前記オーディオ信号(102)の少なくとも2つの高調波信号要素(124_1:124_6)を表す複数の、個々の符号化されたスペクトル係数または符号化されたスペクトル係数グループを示す、請求項24から43のいずれか一項に記載のデコーダ(200)。
  45. 前記スペクトル係数は、スペクトルビンである、請求項24から44のいずれか一項に記載のデコーダ(200)。
  46. 変換領域またはフィルタバンク領域において、オーディオ信号を符号化する方法(300)であって、前記方法は、
    現在のフレームおよび少なくとも1つの前のフレームについての前記オーディオ信号のスペクトル係数を決定すること(302)と、
    間隔値を決定することと、
    複数の、個々のスペクトル係数またはスペクトル係数グループに対して、予測符号化を選択的に適用すること(304)であって、予測符号化が適用される前記複数の、個々のスペクトル係数またはスペクトル係数グループは、前記間隔値に基づいて選択されることと
    を含む、方法。
  47. 変換領域またはフィルタバンク領域において、符号化されたオーディオ信号を復号化する方法(400)であって、前記方法は、
    現在のフレームおよび少なくとも1つの前のフレームについての前記オーディオ信号の符号化されたスペクトル係数を得るために、前記符号化されたオーディオ信号を解析すること(402)と、
    間隔値を得ることと、
    複数の、個々の符号化されたスペクトル係数または符号化されたスペクトル係数グループに対して、予測復号化を選択的に適用すること(404)であって、予測復号化が適用される前記複数の、個々の符号化されたスペクトル係数または符号化されたスペクトル係数グループは、前記間隔値に基づいて選択されることと
    を含む、方法。
  48. 請求項46または47に記載の方法を実行するためのコンピュータプログラム。
  49. オーディオ信号(102)を符号化するエンコーダ(100)であって、前記エンコーダ(100)は、変換領域またはフィルタバンク領域(104)において、前記オーディオ信号(102)を符号化するように構成され、前記エンコーダは、現在のフレーム(108_t0)および少なくとも1つの前のフレーム(108_t-1)についての前記オーディオ信号(102)のスペクトル係数(106_t0_f1:106_t0_f6;106_t-1_f1:106_t-1_f6)を決定するように構成され、前記エンコーダ(100)は、複数の、個々のスペクトル係数(106_t0_f2)またはスペクトル係数グループ(106_t0_f4,106_t0_f5)に対して、予測符号化を選択的に適用するように構成され、前記エンコーダ(100)は、間隔値を決定するように構成され、前記エンコーダ(100)は、予測符号化が適用される前記複数の、個々のスペクトル係数(106_t0_f2)またはスペクトル係数グループ(106_t0_f4,106_t0_f5)を、前記間隔値に基づいて選択するように構成され、
    前記エンコーダ(100)は、予測符号化のために、前記間隔値によって定義された高調波グリッドによりスペクトル的に配置された、個々のスペクトル係数またはスペクトル係数グループ(116_1:116_6)を選択するように構成される、エンコーダ。
  50. 符号化されたオーディオ信号(120)を復号化するデコーダ(200)であって、前記デコーダ(200)は、変換領域またはフィルタバンク領域(204)において、前記符号化されたオーディオ信号(120)を復号化するように構成され、前記デコーダ(200)は、現在のフレーム(208_t0)および少なくとも1つの前のフレーム(208_t-1)についての前記オーディオ信号(120)の符号化されたスペクトル係数(206_t0_f1:206_t0_f6;206_t-1_f1:206_t-1_f6)を得るために、前記符号化されたオーディオ信号(120)を解析するように構成され、前記デコーダ(200)は、複数の、個々の符号化されたスペクトル係数(206_t0_f2)または符号化されたスペクトル係数グループ(206_t0_f4:206_t0_f5)に対して、予測復号化を選択的に適用するように構成され、前記デコーダ(200)は、間隔値を得るように構成され、前記デコーダ(200)は、予測復号化が適用される前記複数の、個々の符号化されたスペクトル係数(206_t0_f2)または符号化されたスペクトル係数グループ(206_t0_f4,206_t0_f5)を、前記間隔値に基づいて選択するように構成され、
    前記デコーダ(200)は、予測復号化のために、前記間隔値によって定義された高調波グリッドによりスペクトル的に配置された、個々のスペクトル係数(206_t0_f2)またはスペクトル係数グループ(206_t0_f4,206_t0_f5)を選択するように構成される、デコーダ。
JP2022082087A 2015-03-09 2022-05-19 オーディオエンコーダ、オーディオデコーダ、オーディオ信号を符号化する方法、および符号化されたオーディオ信号を復号化する方法 Pending JP2022110116A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
EP15158253 2015-03-09
EP15158253.3 2015-03-09
PCT/EP2015/063658 WO2016142002A1 (en) 2015-03-09 2015-06-17 Audio encoder, audio decoder, method for encoding an audio signal and method for decoding an encoded audio signal
EPPCT/EP2015/063658 2015-06-17
JP2019200326A JP7078592B2 (ja) 2015-03-09 2019-11-01 オーディオエンコーダ、オーディオデコーダ、オーディオ信号を符号化する方法、および符号化されたオーディオ信号を復号化する方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019200326A Division JP7078592B2 (ja) 2015-03-09 2019-11-01 オーディオエンコーダ、オーディオデコーダ、オーディオ信号を符号化する方法、および符号化されたオーディオ信号を復号化する方法

Publications (1)

Publication Number Publication Date
JP2022110116A true JP2022110116A (ja) 2022-07-28

Family

ID=52692424

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2017546946A Active JP6666356B2 (ja) 2015-03-09 2016-03-07 オーディオエンコーダ、オーディオデコーダ、オーディオ信号を符号化する方法、および符号化されたオーディオ信号を復号化する方法
JP2019200326A Active JP7078592B2 (ja) 2015-03-09 2019-11-01 オーディオエンコーダ、オーディオデコーダ、オーディオ信号を符号化する方法、および符号化されたオーディオ信号を復号化する方法
JP2022082087A Pending JP2022110116A (ja) 2015-03-09 2022-05-19 オーディオエンコーダ、オーディオデコーダ、オーディオ信号を符号化する方法、および符号化されたオーディオ信号を復号化する方法

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2017546946A Active JP6666356B2 (ja) 2015-03-09 2016-03-07 オーディオエンコーダ、オーディオデコーダ、オーディオ信号を符号化する方法、および符号化されたオーディオ信号を復号化する方法
JP2019200326A Active JP7078592B2 (ja) 2015-03-09 2019-11-01 オーディオエンコーダ、オーディオデコーダ、オーディオ信号を符号化する方法、および符号化されたオーディオ信号を復号化する方法

Country Status (20)

Country Link
US (2) US10600428B2 (ja)
EP (3) EP3268960B1 (ja)
JP (3) JP6666356B2 (ja)
KR (1) KR102151728B1 (ja)
CN (3) CN107533847B (ja)
AR (6) AR103890A1 (ja)
AU (4) AU2016231220B2 (ja)
BR (1) BR112017019185B1 (ja)
CA (1) CA2978815C (ja)
ES (1) ES2821025T3 (ja)
HK (1) HK1244583A1 (ja)
MX (1) MX365267B (ja)
MY (1) MY181486A (ja)
PL (1) PL3268960T3 (ja)
PT (1) PT3268960T (ja)
RU (1) RU2707151C2 (ja)
SG (1) SG11201707349WA (ja)
TW (1) TWI613644B (ja)
WO (1) WO2016142002A1 (ja)
ZA (6) ZA201706604B (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016142002A1 (en) * 2015-03-09 2016-09-15 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Audio encoder, audio decoder, method for encoding an audio signal and method for decoding an encoded audio signal
EP3483882A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Controlling bandwidth in encoders and/or decoders
EP3483886A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Selecting pitch lag
EP3483879A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Analysis/synthesis windowing function for modulated lapped transformation
EP3483878A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio decoder supporting a set of different loss concealment tools
EP3483883A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio coding and decoding with selective postfiltering
EP3483884A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Signal filtering
WO2019091576A1 (en) 2017-11-10 2019-05-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoders, audio decoders, methods and computer programs adapting an encoding and decoding of least significant bits
WO2020094263A1 (en) 2018-11-05 2020-05-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and audio signal processor, for providing a processed audio signal representation, audio decoder, audio encoder, methods and computer programs
CN109473116B (zh) * 2018-12-12 2021-07-20 思必驰科技股份有限公司 语音编码方法、语音解码方法及装置

Family Cites Families (70)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CH572650A5 (ja) * 1972-12-21 1976-02-13 Gretag Ag
JPS6031198A (ja) * 1983-07-29 1985-02-16 松下電器産業株式会社 予測残差信号符号化方法
US5787387A (en) * 1994-07-11 1998-07-28 Voxware, Inc. Harmonic adaptive speech coding method and system
JP3680374B2 (ja) * 1995-09-28 2005-08-10 ソニー株式会社 音声合成方法
US5781888A (en) * 1996-01-16 1998-07-14 Lucent Technologies Inc. Perceptual noise shaping in the time domain via LPC prediction in the frequency domain
JP2891193B2 (ja) * 1996-08-16 1999-05-17 日本電気株式会社 広帯域音声スペクトル係数量子化装置
US6161089A (en) * 1997-03-14 2000-12-12 Digital Voice Systems, Inc. Multi-subframe quantization of spectral parameters
US6636829B1 (en) * 1999-09-22 2003-10-21 Mindspeed Technologies, Inc. Speech communication system and method for handling lost frames
US6782360B1 (en) * 1999-09-22 2004-08-24 Mindspeed Technologies, Inc. Gain quantization for a CELP speech coder
JP2002162998A (ja) * 2000-11-28 2002-06-07 Fujitsu Ltd パケット修復処理を伴なう音声符号化方法
EP1304885A3 (de) * 2001-09-14 2005-04-20 Siemens Aktiengesellschaft Verfahren und Computerprogrammprodukt zur Codierung und Decodierung von Videosignalen
EP1495485A4 (en) * 2002-04-12 2007-10-10 Fujifilm Electronic Materials REMOTE MONITORING SYSTEM FOR DELIVERY OF CHEMICAL LIQUIDS
US7634399B2 (en) * 2003-01-30 2009-12-15 Digital Voice Systems, Inc. Voice transcoder
EP1475144A2 (de) * 2003-05-09 2004-11-10 Pfaudler Werke GmbH Stromstörer für einen Rührkessel, aufweisend mindestens ein Stromstörelement
US7688894B2 (en) * 2003-09-07 2010-03-30 Microsoft Corporation Scan patterns for interlaced video content
AU2003264322A1 (en) * 2003-09-17 2005-04-06 Beijing E-World Technology Co., Ltd. Method and device of multi-resolution vector quantilization for audio encoding and decoding
US7356748B2 (en) * 2003-12-19 2008-04-08 Telefonaktiebolaget Lm Ericsson (Publ) Partial spectral loss concealment in transform codecs
TWI277013B (en) * 2005-02-01 2007-03-21 Ind Tech Res Inst Method for reducing buffered-frame memory sizes and accesses in a video codec
US8155965B2 (en) * 2005-03-11 2012-04-10 Qualcomm Incorporated Time warping frames inside the vocoder by modifying the residual
US7885809B2 (en) * 2005-04-20 2011-02-08 Ntt Docomo, Inc. Quantization of speech and audio coding parameters using partial information on atypical subsequences
US7599840B2 (en) * 2005-07-15 2009-10-06 Microsoft Corporation Selectively using multiple entropy models in adaptive coding and decoding
US7684981B2 (en) * 2005-07-15 2010-03-23 Microsoft Corporation Prediction of spectral coefficients in waveform coding and decoding
EP1852849A1 (en) * 2006-05-05 2007-11-07 Deutsche Thomson-Brandt Gmbh Method and apparatus for lossless encoding of a source signal, using a lossy encoded data stream and a lossless extension data stream
KR101365445B1 (ko) * 2007-01-03 2014-02-19 삼성전자주식회사 전역 및 국부 움직임 보상을 순차적으로 이용하는 움직임보상 방법, 복호화 방법, 장치, 인코더 및 디코더
DE102007018484B4 (de) * 2007-03-20 2009-06-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Senden einer Folge von Datenpaketen und Decodierer und Vorrichtung zum Decodieren einer Folge von Datenpaketen
US9653088B2 (en) * 2007-06-13 2017-05-16 Qualcomm Incorporated Systems, methods, and apparatus for signal encoding using pitch-regularizing and non-pitch-regularizing coding
US7774205B2 (en) * 2007-06-15 2010-08-10 Microsoft Corporation Coding of sparse digital media spectral data
US7761290B2 (en) * 2007-06-15 2010-07-20 Microsoft Corporation Flexible frequency and time partitioning in perceptual transform coding of audio
CA2716817C (en) * 2008-03-03 2014-04-22 Lg Electronics Inc. Method and apparatus for processing audio signal
CN101335000B (zh) * 2008-03-26 2010-04-21 华为技术有限公司 编码的方法及装置
CN101552005A (zh) * 2008-04-03 2009-10-07 华为技术有限公司 编码方法、解码方法、系统及装置
ES2651437T3 (es) * 2008-07-11 2018-01-26 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Codificador de audio y decodificador de audio
ES2422412T3 (es) * 2008-07-11 2013-09-11 Fraunhofer Ges Forschung Codificador de audio, procedimiento para la codificación de audio y programa de ordenador
CA2871268C (en) * 2008-07-11 2015-11-03 Nikolaus Rettelbach Audio encoder, audio decoder, methods for encoding and decoding an audio signal, audio stream and computer program
US8406307B2 (en) * 2008-08-22 2013-03-26 Microsoft Corporation Entropy coding/decoding of hierarchically organized data
US8532983B2 (en) * 2008-09-06 2013-09-10 Huawei Technologies Co., Ltd. Adaptive frequency prediction for encoding or decoding an audio signal
EP2192786A1 (en) * 2008-11-27 2010-06-02 Panasonic Corporation Frequency domain filters for video coding
EP2380363B1 (en) * 2009-01-20 2015-09-30 MED-EL Elektromedizinische Geräte GmbH High accuracy tonotopic and periodic coding with enhanced harmonic resolution
US8666752B2 (en) * 2009-03-18 2014-03-04 Samsung Electronics Co., Ltd. Apparatus and method for encoding and decoding multi-channel signal
JP4932917B2 (ja) 2009-04-03 2012-05-16 株式会社エヌ・ティ・ティ・ドコモ 音声復号装置、音声復号方法、及び音声復号プログラム
US8391212B2 (en) * 2009-05-05 2013-03-05 Huawei Technologies Co., Ltd. System and method for frequency domain audio post-processing based on perceptual masking
RU2591661C2 (ru) * 2009-10-08 2016-07-20 Фраунхофер-Гезелльшафт цур Фёрдерунг дер ангевандтен Форшунг Е.Ф. Многорежимный декодировщик аудио сигнала, многорежимный кодировщик аудио сигналов, способы и компьютерные программы с использованием кодирования с линейным предсказанием на основе ограничения шума
KR101487687B1 (ko) * 2010-01-14 2015-01-29 삼성전자주식회사 큰 크기의 변환 단위를 이용한 영상 부호화, 복호화 방법 및 장치
MX2012010469A (es) * 2010-03-10 2012-12-10 Dolby Int Ab Decodificador de señales de audio, codificador de señales de audio, metodos y programa de computacion que utiliza tasa de muestreo dependiente de la codificacion del contorno de distorsion en el tiempo.
CN101847413B (zh) * 2010-04-09 2011-11-16 北京航空航天大学 一种使用新型心理声学模型和快速比特分配实现数字音频编码的方法
JP5387522B2 (ja) * 2010-07-01 2014-01-15 コニカミノルタ株式会社 カラー画像形成装置
US9236063B2 (en) * 2010-07-30 2016-01-12 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for dynamic bit allocation
KR101744621B1 (ko) * 2010-09-16 2017-06-09 돌비 인터네셔널 에이비 교차 곱 강화된 서브밴드 블록 기반 고조파 전위
RU2553084C2 (ru) * 2010-10-07 2015-06-10 Фраунхофер-Гезелльшафт Цур Фердерунг Дер Ангевандтен Форшунг Е.Ф. Устройство и способ для оценки уровня кодированных аудио кадров в области битового потока
FR2969805A1 (fr) * 2010-12-23 2012-06-29 France Telecom Codage bas retard alternant codage predictif et codage par transformee
EP2684355B1 (en) * 2011-03-10 2014-11-12 Telefonaktiebolaget L M Ericsson (PUBL) Decoding of transforms with curved basis functions
US20130144632A1 (en) * 2011-10-21 2013-06-06 Samsung Electronics Co., Ltd. Frame error concealment method and apparatus, and audio decoding method and apparatus
EP2795884A4 (en) * 2011-12-20 2015-07-29 Nokia Corp AUDIOCONFERENCING
WO2013176177A1 (ja) 2012-05-23 2013-11-28 日本電信電話株式会社 符号化方法、復号方法、符号化装置、復号装置、プログラム、および記録媒体
CN102798870B (zh) * 2012-08-07 2013-09-25 中国空间技术研究院 一种卫星导航系统兼容性分析方法
TR201902943T4 (tr) * 2012-10-01 2019-03-21 Nippon Telegraph & Telephone Kodlama metodu, kodlayıcı, program ve kayıt ortamı.
AU2014204954B2 (en) * 2013-01-08 2017-05-18 Dolby International Ab Model based prediction in a critically sampled filterbank
WO2014131125A1 (en) * 2013-02-27 2014-09-04 Evolution Engineering Inc. Fluid pressure pulse generating apparatus and method of using same
US9478224B2 (en) * 2013-04-05 2016-10-25 Dolby International Ab Audio processing system
CN105408956B (zh) * 2013-06-21 2020-03-27 弗朗霍夫应用科学研究促进协会 用于获取音频信号的替换帧的频谱系数的方法及相关产品
PL3285254T3 (pl) * 2013-10-31 2019-09-30 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Dekoder audio i sposób dostarczania zdekodowanej informacji audio z wykorzystaniem ukrywania błędów na bazie sygnału wzbudzenia w dziedzinie czasu
US9836429B2 (en) 2013-11-06 2017-12-05 Hitachi, Ltd. Signal transmission circuit and printed circuit board
KR101913241B1 (ko) * 2013-12-02 2019-01-14 후아웨이 테크놀러지 컴퍼니 리미티드 인코딩 방법 및 장치
CN104934034B (zh) * 2014-03-19 2016-11-16 华为技术有限公司 用于信号处理的方法和装置
CN110853659B (zh) * 2014-03-28 2024-01-05 三星电子株式会社 用于对音频信号进行编码的量化装置
EP2963648A1 (en) * 2014-07-01 2016-01-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio processor and method for processing an audio signal using vertical phase correction
JP5723472B1 (ja) * 2014-08-07 2015-05-27 廣幸 田中 データリンク生成装置、データリンク生成方法、データリンク構造および電子ファイル
EP3198247B1 (en) * 2014-09-25 2021-03-17 Sunhouse Technologies, Inc. Device for capturing vibrations produced by an object and system for capturing vibrations produced by a drum.
WO2016142002A1 (en) 2015-03-09 2016-09-15 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Audio encoder, audio decoder, method for encoding an audio signal and method for decoding an encoded audio signal
US20170022149A1 (en) * 2015-07-25 2017-01-26 Mark Quang Nguyen Fumarate compounds, pharmaceutical compositions thereof, and methods of use

Also Published As

Publication number Publication date
CA2978815C (en) 2021-02-02
JP2020038380A (ja) 2020-03-12
ES2821025T3 (es) 2021-04-23
ZA202204766B (en) 2022-08-31
AU2019203173A1 (en) 2019-05-30
JP2018511821A (ja) 2018-04-26
AU2016231220B2 (en) 2019-05-16
KR20170134475A (ko) 2017-12-06
CA2978815A1 (en) 2016-09-15
AU2016231220A1 (en) 2017-09-28
AR103890A1 (es) 2017-06-14
US20200227058A1 (en) 2020-07-16
US10600428B2 (en) 2020-03-24
BR112017019185B1 (pt) 2023-09-26
PT3268960T (pt) 2020-09-29
EP3373298C0 (en) 2023-12-20
AR122219A2 (es) 2022-08-24
AR122486A2 (es) 2022-09-14
ZA201706604B (en) 2022-08-31
JP6666356B2 (ja) 2020-03-13
AR122487A2 (es) 2022-09-14
HK1244583A1 (zh) 2018-08-10
CN107533847B (zh) 2021-09-10
MX365267B (es) 2019-05-22
AU2019203173B2 (en) 2021-05-13
AR122488A2 (es) 2022-09-14
CN107533847A (zh) 2018-01-02
ZA202204764B (en) 2022-08-31
TW201637002A (zh) 2016-10-16
AU2023241343A1 (en) 2023-10-26
EP3373298B1 (en) 2023-12-20
RU2017134620A (ru) 2019-04-09
MY181486A (en) 2020-12-23
EP3268960A1 (en) 2018-01-17
CN114067813A (zh) 2022-02-18
WO2016142002A1 (en) 2016-09-15
TWI613644B (zh) 2018-02-01
ZA202204765B (en) 2022-08-31
ZA202204768B (en) 2022-08-31
MX2017011494A (es) 2018-01-25
JP7078592B2 (ja) 2022-05-31
KR102151728B1 (ko) 2020-09-03
BR112017019185A2 (pt) 2018-04-24
EP4297027A3 (en) 2024-03-20
PL3268960T3 (pl) 2021-01-11
RU2707151C2 (ru) 2019-11-22
EP4297027A2 (en) 2023-12-27
ZA202204767B (en) 2022-08-31
EP3268960B1 (en) 2020-06-24
AR122489A2 (es) 2022-09-14
AU2021215252A1 (en) 2021-09-02
EP3373298A1 (en) 2018-09-12
AU2021215252B2 (en) 2023-07-06
RU2017134620A3 (ja) 2019-04-09
CN114067812A (zh) 2022-02-18
SG11201707349WA (en) 2017-10-30
US20170365267A1 (en) 2017-12-21

Similar Documents

Publication Publication Date Title
JP2022110116A (ja) オーディオエンコーダ、オーディオデコーダ、オーディオ信号を符号化する方法、および符号化されたオーディオ信号を復号化する方法
AU2014336097B2 (en) Coding of spectral coefficients of a spectrum of an audio signal
TWI488177B (zh) 使用頻譜域雜訊整形之基於線性預測的編碼方案
JP6248194B2 (ja) 多チャネルオーディオ符号化におけるノイズ充填
JP2016508618A (ja) 周波数領域におけるlpc系符号化のための低周波数エンファシス
TWI559294B (zh) 支援轉換長度切換的頻率域音源編碼器、解碼器、編碼方法、解碼方法及電腦程式
WO2016142357A1 (en) Audio encoder, audio decoder, method for encoding an audio signal and method for decoding an encoded audio signal
US20090063161A1 (en) Method and apparatus for encoding and decoding continuation sinusoidal signal of audio signal

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220519

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230518

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230530

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230824

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240220