JP2021503628A - 量子化とエントロピーコーディングとを使用して指向性オーディオコーディングパラメータを符号化または復号するための装置および方法 - Google Patents
量子化とエントロピーコーディングとを使用して指向性オーディオコーディングパラメータを符号化または復号するための装置および方法 Download PDFInfo
- Publication number
- JP2021503628A JP2021503628A JP2020526994A JP2020526994A JP2021503628A JP 2021503628 A JP2021503628 A JP 2021503628A JP 2020526994 A JP2020526994 A JP 2020526994A JP 2020526994 A JP2020526994 A JP 2020526994A JP 2021503628 A JP2021503628 A JP 2021503628A
- Authority
- JP
- Japan
- Prior art keywords
- parameter
- quantized
- elevation
- azimuth
- parameters
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013139 quantization Methods 0.000 title claims description 109
- 238000000034 method Methods 0.000 title claims description 89
- 238000009792 diffusion process Methods 0.000 claims abstract description 177
- 230000005236 sound signal Effects 0.000 claims description 63
- 239000013598 vector Substances 0.000 claims description 48
- 230000003595 spectral effect Effects 0.000 claims description 13
- 238000004364 calculation method Methods 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 10
- 238000012986 modification Methods 0.000 claims description 7
- 230000004048 modification Effects 0.000 claims description 7
- 238000001228 spectrum Methods 0.000 claims description 5
- 230000009466 transformation Effects 0.000 claims description 5
- 238000009877 rendering Methods 0.000 claims description 4
- 238000013507 mapping Methods 0.000 claims description 2
- 240000007594 Oryza sativa Species 0.000 claims 1
- 235000007164 Oryza sativa Nutrition 0.000 claims 1
- 238000009795 derivation Methods 0.000 claims 1
- 230000001747 exhibiting effect Effects 0.000 claims 1
- 235000009566 rice Nutrition 0.000 claims 1
- 230000000875 corresponding effect Effects 0.000 description 77
- CXENHBSYCFFKJS-OXYODPPFSA-N (Z,E)-alpha-farnesene Chemical compound CC(C)=CCC\C(C)=C\C\C=C(\C)C=C CXENHBSYCFFKJS-OXYODPPFSA-N 0.000 description 55
- 230000006870 function Effects 0.000 description 45
- 238000012935 Averaging Methods 0.000 description 28
- 238000004458 analytical method Methods 0.000 description 19
- 238000006243 chemical reaction Methods 0.000 description 19
- 238000012545 processing Methods 0.000 description 19
- 238000005259 measurement Methods 0.000 description 13
- 238000003786 synthesis reaction Methods 0.000 description 12
- 230000015572 biosynthetic process Effects 0.000 description 11
- 230000005540 biological transmission Effects 0.000 description 7
- 230000009467 reduction Effects 0.000 description 7
- 238000004091 panning Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000002123 temporal effect Effects 0.000 description 4
- 239000002131 composite material Substances 0.000 description 3
- 238000000354 decomposition reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000009432 framing Methods 0.000 description 2
- 238000002156 mixing Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000035807 sensation Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/008—Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/0204—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using subband decomposition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/032—Quantisation or dequantisation of spectral components
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/032—Quantisation or dequantisation of spectral components
- G10L19/038—Vector quantisation, e.g. TwinVQ audio
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/167—Audio streaming, i.e. formatting and decoding of an encoded audio signal representation into a data stream for transmission or storage purposes
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/26—Pre-filtering or post-filtering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/15—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being formant information
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/21—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03M—CODING; DECODING; CODE CONVERSION IN GENERAL
- H03M7/00—Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
- H03M7/30—Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
- H03M7/3082—Vector coding
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03M—CODING; DECODING; CODE CONVERSION IN GENERAL
- H03M7/00—Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
- H03M7/30—Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
- H03M7/60—General implementation details not specific to a particular type of compression
- H03M7/6005—Decoder aspects
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03M—CODING; DECODING; CODE CONVERSION IN GENERAL
- H03M7/00—Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
- H03M7/30—Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
- H03M7/60—General implementation details not specific to a particular type of compression
- H03M7/6011—Encoder aspects
Abstract
Description
DirACにおいて、分析と合成の両方が周波数領域において実行される。時間-周波数分析および合成は、短期フーリエ変換(STFT:short-term Fourier Transform)のような様々なブロック変換、または複素変調直交ミラーフィルタバンク(QMF:Quadrature Mirror Filterbank)のようなフィルタバンクを使用して実行され得る。好ましい実施形態において、DirAC処理とコアエンコーダとの間でフレーミングを共有することを目的とする。コアエンコーダは、好ましくは、3GPP EVSコーデックに基づくので、20msのフレーミングが望まれる。さらに、時間および周波数分解能ならびにエイリアシングのロバスト性などの重要な基準は、DirACにおける非常にアクティブな時間-周波数処理に関係する。システムは、通信のために設計されているので、アルゴリズム的遅延は、別の重要な特徴である。
各周波数帯域において、音の拡散性とともに音の到来方向が推定される。入力Bフォーマットの成分wi(n)、xi(n)、yi(n)、zi(n)の時間-周波数分析から、圧力および速度のベクトルが、
Pi(n,k)=Wi(n,k)
Ui(n,k)=Xi(n,k)ex+Yi(n,k)ey+Zi(n,k)ez
として決定され得、ここで、iは、入力のインデックスであり、nおよびkは、時間-周波数タイルの時間および周波数のインデックスであり、ex、ey、ezは、デカルト単位ベクトルを表す。P(n,k)およびU(n,k)は、強度ベクトル、
パラメータの数を低減するために、各時間-周波数タイルにおいて計算されたパラメータは、最初に、周波数パラメータ帯域に沿って、いくつかの時間スロットにわたってグループ化および平均化される。グループ化は、拡散性と方向との間で分離され、これは、本発明の重要な態様である。実際、分離は、拡散性が方向よりも長期の音場の特性を保持するという事実を利用し、これは、より反応的な空間的手がかりである。
slotdiff=[0,16]
banddiff=[0,1,3,7,15,60]
のように定義され得る。
slotdv=[0,4,8,12,16]
banddv=[0,1,3,7,15,60]
のように定義され得る。
フレームごとに、DirAC空間パラメータは、周波数全体のnbandsバンドからなるグリッドにおいて計算され、周波数バンドbごとに、num_slots時間スロットは、いくつかの等しいサイズのnblocks(b)時間グループにグループ化される。拡散パラメータは、周波数帯域ごとに送信され、方向パラメータは、各周波数帯域の時間グループごとに送信される。
各拡散パラメータdiff(b)は、拡散インデックスdiff_idx(b)を生成する不均一量子化器を使用して、diff_alph離散レベルのうちの1つに量子化される。例えば、量子化器は、しきい値および再構成レベルがgenerate_diffuseness_quantizer関数によって計算される、MPS標準において使用されるICC量子化テーブルから導出されてもよい。
reconstructions=[0.0,0.03955,0.08960,0.15894,0.30835,0.47388,0.63232,0.85010]
thresholds=[0.0,0.01904,0.06299,0.11938,0.22119,0.39917,0.54761,0.73461,2.0]
である。
パンクチャドコードを使用して準均一確率を用いてvalueを符号化するために、EncodeQuasiUniform(value,alphabet_sz)関数が使用される。value∈{0,...,alphabet_sz-1}について、いくつかの最小のものが、
bits=floor(log2(alphabet_sz))
thresh=2^(bits+1)-alphabet_sz
(value<thresh)の場合
write_bits(value,bits)
そうでない場合
write_bits(value+thresh,bits+1)
として定義される。
bits=floor(log2(alphabet_sz))
thresh=2^(bits+1)-alphabet_sz
value=read_bits(bits)
(value>=thresh)の場合
value=(value*2+read_bits(1))-thresh
の値を返す
として定義され得る。
dv[0]2+dv[1]2+dv[2]2=1となるように正規化された各3次元方向ベクトルdvは、関数DirectionVector2AzimuthElevationを使用して、仰角el∈[-90,90]および方位角az∈[0,360]からなる極座標表現に変換される。極座標から正規化された方向ベクトルへの逆方向変換は、関数AzimuthElevation2DirectionVectorを使用して達成される。
仰角と方位角のペアとして表される方向がさらに量子化される。量子化された拡散インデックスレベルごとに、必要とされる角度精度が、deg_req=angle_spacing(diff_idx(b))としてangle_spacing構成ベクトルから選択され、単位球上の準均一に分布した量子化点のセットを生成するために使用される。
angle_spacing_table=[5.0,5.0,7.5,10.0,18.0,30.0,45.0,90.0]
である。
{90,45,30,22.5,18,15,12.86,11.25,10,...,5,...}
である。仰角elは、ステップサイズdeg_reqで均一に量子化され、el_alph=2・n_points+1の量子化インデックスのうちの1つであるel_idx=round(el÷deg_req)+n_pointsを生成し、ここで、
すべての帯域bについてdiff_idx(b)<=ec_maxである低から中の拡散性フレームについて、生コーディングとエントロピーコーディングの両方を使用してすべての方向が符号化され、最適なものが選択され、(dir_use_raw_codingとして上記で識別された)サイド情報として1ビットによって示される;
いくつかの帯域bについてdiff_idx(b)<=ec_maxである混合拡散性フレームについて、それらの帯域に対応する方向は、第1のケースの通りに符号化されるが、diff_idx(b)>ec_maxである他の高拡散性帯域bについて、(低から中位の拡散性を有する方向のエントロピーコーディング統計が、同様に非常に粗く量子化された高い拡散性を有する方向と混ざることを回避するために)これらの他の帯域に対応する方向は、常に生として符号化される;
すべての帯域bについてdiff_idx(b)>ec_maxである高拡散性フレームについて、ec_maxしきい値は、現在のフレームに関するec_max=diff_alphに前もって設定され(拡散インデックスが方向の前にコーディングされるので、この設定は、デコーダ側においても同じように前もって行われ得る)、したがって、このケースは、第1のケースになる。
量子化された方向をコーディングするとき、仰角インデックスel_idxが常に最初にコーディングされ、その後、方位角インデックスaz_idxがコーディングされる。現在の構成が水平赤道面のみを考慮に入れている場合、仰角についてなにもコーディングされず、どこでもゼロと見なされる。
・モデルの一般性を損なわない、DirACによって生成された空間メタデータの効率的なコーディング。それは、DirACを低ビットレートコーディング方式に統合するための成功への鍵である。
・異なる時間(またはオプションで周波数)分解能を用いる方向および拡散パラメータのグループ化および平均化:拡散は、方向よりも長期の音場の特性を保持し、これは、より反応的な空間的手がかりであるので、拡散は、方向よりも長い時間にわたって平均される。
・3D球の準均一な動的カバレッジ、X、Y、およびZ座標軸に対して完全に対称、ならびに任意の所望な角度分解能が可能である。
・量子化および逆量子化動作が、一定の複雑さである(最も近いコードベクトルの検索が必要ではない)。
・量子化された点インデックスの符号化および復号が、球上の量子化された点の総数に対して一定のまたは最大で対数的な複雑さを有する。
・1つのフレームに関するDirAC空間メタデータ全体の最悪の場合のエントロピーコーディングサイズが、生コーディングのものよりも2ビットだけ多くに常に制限される。
・潜在的に異なるアルファベットサイズを有するシンボルのベクトルをコーディングするのに最適な拡張Golomb-Riceコーディング方法。
・方向の効率的なエントロピーコーディングに平均方向を使用し、量子化された平均方向を最も高い分解能から各方位角および仰角の分解能にマッピングする。
・混合拡散フレームについて、事前定義されたしきい値を超える高い拡散性を有する方向に対して常に生コーディングを使用する。
・その対応する拡散性の関数として、各方向に関する角度分解能を使用する。
1.拡散パラメータと方向パラメータとを含む指向性オーディオコーディングパラメータを符号化するための装置であって、
第1の時間または周波数分解能を用いて拡散パラメータを計算し、第2の時間または周波数分解能を用いて方向パラメータを計算するためのパラメータ計算機(100)と、
拡散パラメータおよび方向パラメータの量子化および符号化された表現を生成するための量子化器およびエンコーダプロセッサ(200)と
を備える、装置。
2.パラメータ計算機(100)が、第2の時間または周波数分解能が第1の時間または周波数分解能と異なるように、拡散パラメータと方向パラメータとを計算するように構成される、例1の装置。
3.パラメータ計算機(100)が、第1の時間分解能が第2の時間分解能よりも低くなるように、または第2の周波数分解能が第1の周波数分解能よりも高くなるように、または第1の時間分解能が第2の時間分解能よりも低く、第1の周波数分解能が第2の周波数分解能と等しくなるように、拡散パラメータと方向パラメータとを計算するように構成される、例1または2の装置。
4.パラメータ計算機(100)が、周波数帯域のセットについて、拡散パラメータと方向パラメータとを計算するように構成され、より低い中心周波数を有する帯域が、より高い中心周波数を有する帯域よりも狭い、上記の例のいずれか1つの装置。
5.パラメータ計算機(100)が、第3の時間または周波数分解能を有する初期拡散パラメータを取得し、第4の時間または周波数分解能を有する初期方向パラメータを取得するように構成され、
パラメータ計算機(100)が、第3の時間または周波数分解能が第1の時間または周波数分解能よりも高くなるように、初期拡散パラメータをグループ化および平均化するように構成され、または
パラメータ計算機(100)が、第4の時間または周波数分解能が第2の時間または周波数分解能よりも高くなるように、初期方向パラメータをグループ化および平均化するように構成される、
上記の例のいずれか1つの装置。
6.第3の時間または周波数分解能および第4の時間または周波数分解能が互いに等しい、例5の装置。
7.第3の時間分解能または周波数分解能が、各初期拡散パラメータが同じサイズを有する時間スロットまたは周波数ビンに関連付けられるように、一定の時間または周波数分解能であり、または
第4の時間または周波数分解能が、各初期方向パラメータが同じサイズを有する時間スロットまたは周波数ビンに関連付けられるように、一定の時間または周波数分解能であり、
パラメータ計算機(100)が、第1の複数の時間スロットに関連付けられた第1の複数の拡散パラメータにわたって平均化するように構成され、または
パラメータ計算機(100)が、第2の複数の周波数ビンに関連付けられた第2の複数の拡散パラメータにわたって平均化するように構成され、または
パラメータ計算機(100)が、第3の複数の時間スロットに関連付けられた第3の複数の方向パラメータにわたって平均化するように構成され、または
パラメータ計算機(100)が、第4の複数の周波数ビンに関連付けられた第4の複数の方向パラメータにわたって平均化するように構成される、
例5または6の装置。
8.パラメータ計算機(100)が、重み付け平均を使用して平均化するように構成され、重み付け平均では、より高い振幅関連測定値を有する入力信号部分から導出された拡散パラメータまたは方向パラメータが、より低い振幅関連測定値を有する入力信号部分から導出された拡散パラメータまたは方向パラメータと比較してより高い重み付け係数を使用して重み付けされる、例5から7のいずれか1つの装置。
9.振幅関連測定値が、時間部分もしくは周波数部分における電力もしくはエネルギー、または、時間部分もしくは周波数部分において1と等しいかもしくは異なる負ではない実数で累乗された電力もしくはエネルギーである、例8の装置。
10.パラメータ計算機(100)が、拡散パラメータまたは方向パラメータが、第1または第2の時間または周波数分解能に対応する入力信号の時間部分から導出された振幅関連測定値に対して正規化されるように、平均化を実行するように構成される、例5から9のいずれか1つの装置。
11.パラメータ計算機(100)が、重み付け平均を使用して初期方向パラメータをグループ化および平均化するように構成され、より低い拡散性を示す第1の拡散パラメータを有する第1の時間部分に関連付けられている第1の方向パラメータが、より高い拡散性を示す第2の拡散パラメータを有する第2の時間部分に関連付けられている第2の方向パラメータよりも強く重み付けされる、例5から9のいずれか1つの装置。
12.パラメータ計算機(100)が、初期方向パラメータが2つまたは3つの方向の各々に関する成分を有するデカルトベクトルを各々含むように、初期方向パラメータを計算するように構成され、パラメータ計算機(100)が、デカルトベクトルの各々の成分について別々に平均化を実行するように構成されるか、または、成分が、方向パラメータに関するデカルトベクトルの二乗した成分の合計が1に等しくなるように正規化される、上記の例のいずれか1つの装置。
13.複数の入力チャネルを有する入力信号を入力チャネルごとの時間-周波数表現に分解するための時間-周波数分解器をさらに備えるか、または、
時間周波数分解器が、複数の入力チャネルを有する入力信号を、第3の時間もしくは周波数分解能または第4の時間もしくは周波数分解能を有する入力チャネルごとの時間-周波数表現に分解するように構成される、上記の例のいずれか1つの装置。
14.時間-周波数分解器が、各サブバンド信号に関する複素数値を結果として生じる変調フィルタバンクを備え、各サブバンド信号が、フレームおよび周波数帯域あたり複数の時間スロットを有する、例6から13のいずれか1つの装置。
15.装置が、第1または第2の時間または周波数分解能の指示を、デコーダへの送信またはストレージのための量子化および符号化された表現に関連付けるように構成される、上記の例のいずれか1つの装置。
16.拡散パラメータおよび方向パラメータの量子化および符号化された表現を生成するための量子化器およびエンコーダプロセッサ(200)が、添付の請求項1から26のいずれか一項において定義されるように、拡散パラメータと方向パラメータとを量子化するためのパラメータ量子化器と、量子化された拡散パラメータと量子化された方向パラメータとを符号化するためのパラメータエンコーダとを備える、上記の例のいずれか1つの装置。
17.拡散パラメータと方向パラメータとを含む指向性オーディオコーディングパラメータを符号化するための方法であって、
第1の時間または周波数分解能を用いて拡散パラメータを計算し、第2の時間または周波数分解能を用いて方向パラメータを計算するステップと、
拡散パラメータおよび方向パラメータの量子化および符号化された表現を生成するステップと
を含む、方法。
18.符号化された拡散パラメータと符号化された方向パラメータとを含む指向性オーディオコーディングパラメータを含む符号化されたオーディオ信号を復号するためのデコーダであって、デコーダが、
第1の時間または周波数分解能を有する復号された拡散パラメータと、第2の時間または周波数分解能を有する復号された方向パラメータとを取得するために、符号化された指向性オーディオコーディングパラメータを復号するためのパラメータプロセッサ(300)と、
符号化もしくは復号された拡散パラメータまたは符号化もしくは復号された方向パラメータを、第3の時間または周波数分解能を有する変換された拡散パラメータまたは変換された方向パラメータに変換するためのパラメータ分解能変換器(710)であって、第3の時間または周波数分解能が、第1の時間もしくは周波数分解能もしくは第2の時間もしくは周波数分解能、または、第1の時間もしくは周波数分解能および第2の時間もしくは周波数分解能と異なる、パラメータ分解能変換器(710)と
を備える、デコーダ。
19.スペクトル領域において動作するオーディオレンダラ(420)をさらに備え、スペクトル領域が、フレームが第1の数と第2の数の乗算結果に等しい数の時間/周波数ビンを含むように、1フレームについて、第1の数の時間スロットと第2の数の周波数帯域とを含み、第1の数および第2の数が第3の時間または周波数分解能を定義する、例18のデコーダ。
20.スペクトル領域において動作するオーディオレンダラ(420)をさらに備え、スペクトル領域が、フレームが第1の数と第2の数の乗算結果に等しい数の時間/周波数ビンを含むように、1フレームについて、第1の数の時間スロットと第2の数の周波数帯域とを含み、第1の数および第2の数が第4の時間または周波数分解能を定義し、第4の時間または周波数分解能が第3の時間または周波数分解能以上である、例18または19のデコーダ。
21.第1の時間または周波数分解能が第2の時間または周波数分解能よりも低く、
パラメータ分解能変換器(710)が、復号された拡散パラメータから第1の多数の変換された拡散パラメータを生成し、復号された方向パラメータから第2の多数の変換された方向パラメータを生成するように構成され、第2の多数が第1の多数よりも大きい、例18から20のいずれか1つのデコーダ。
22.符号化されたオーディオ信号が一連のフレームを含み、各フレームが周波数帯域において編成され、各フレームが周波数帯域ごとに1つのみの符号化された拡散パラメータと、周波数帯域ごとに少なくとも2つの時系列方向パラメータとを含み、
パラメータ分解能変換器(710)が、復号された拡散パラメータを、周波数帯域内のすべての時間ビンか、またはフレーム内の周波数帯域内に含まれる各時間/周波数ビンに関連付け、
周波数帯域の少なくとも2つの方向パラメータのうちの1つを、時間ビンの第1のグループと、周波数帯域内に含まれる各時間/周波数ビンとに関連付け、
少なくとも2つの方向パラメータのうちの第2の復号された方向パラメータを、時間ビンの第2のグループと、周波数帯域内に含まれる各時間/周波数ビンとに関連付ける
ように構成され、第2のグループが第1のグループ内の時間ビンのいずれも含まない、
例18から21のいずれか1つのデコーダ。
23.符号化されたオーディオ信号が符号化されたオーディオトランスポート信号を含み、デコーダが、
復号されたオーディオ信号を取得するために、符号化されたトランスポートオーディオ信号を復号するためのオーディオデコーダ(340)と、
復号されたオーディオ信号を、第3の時間または周波数分解能を有する周波数表現に変換するための時間/周波数変換器(430)と
を備える、
例18から22のいずれか1つのデコーダ。
24.合成スペクトル表現を取得するために、変換された拡散パラメータおよび変換された方向パラメータを、第3の時間または周波数分解能においてオーディオ信号のスペクトル表現に適用するためのオーディオレンダラ(420)と、
第3の時間または周波数分解能の分解能よりも高い時間分解能を有する合成された時間領域空間オーディオ信号を取得するために、第3または第4の時間または周波数分解能において合成スペクトル表現を変換するためのスペクトル/時間変換器(440)と
を備える、例18から23のいずれか1つのデコーダ。
25.パラメータ分解能変換器(710)が、コピー動作を使用して、復号された方向パラメータを乗算するか、または、コピー動作を使用して、復号された拡散パラメータを乗算するか、または、乗算された方向パラメータのセットもしくは乗算された拡散パラメータのセットを平滑化もしくはローパスフィルタリングするように構成される、例18から24のいずれか1つのデコーダ。
26.第2の時間または周波数分解能が、第1の時間または周波数分解能とは異なる、例18から25のいずれか1つのデコーダ。
27.第1の時間分解能が第2の時間分解能よりも低いか、または第2の周波数分解能が第1の周波数分解能よりも高いか、または第1の時間分解能が第2の時間分解能よりも低く、第1の周波数分解能が第2の周波数分解能に等しい、例18から26のいずれか1つのデコーダ。
28.パラメータ分解能変換器(710)が、復号された拡散パラメータと復号された方向パラメータとを、帯域のセットに関する対応する数の周波数隣接変換パラメータ(frequency adjacent converted parameter)に乗算するように構成され、より低い中心周波数を有する帯域が、より高い中心周波数を有する帯域よりも少ない乗算されたパラメータを受け取る、例18から27のいずれか1つのデコーダ。
29.パラメータプロセッサ(300)が、符号化されたオーディオ信号のフレームに関する量子化された拡散パラメータを取得するために、そのフレームに関する符号化された拡散パラメータを復号するように構成され、パラメータプロセッサ(300)が、量子化または逆量子化された拡散パラメータを使用して、フレームに関する少なくとも1つの方向パラメータの逆量子化のための逆量子化精度を決定するように構成され、
パラメータプロセッサが、逆量子化精度を使用して、量子化された方向パラメータを逆量子化するように構成される、
例18から28のいずれか1つのデコーダ。
30.パラメータプロセッサ(300)が、逆量子化のためにパラメータプロセッサ(300)によって使用されるべき逆量子化精度から、フレームに関する符号化された方向パラメータを復号するための復号アルファベットを決定するように構成され、
パラメータプロセッサ(300)が、決定された復号アルファベットを使用して、符号化された方向パラメータを復号し、逆量子化された方向パラメータを決定するように構成される、
例18から29のいずれか1つのデコーダ。
31.パラメータプロセッサ(300)が、方向パラメータを逆量子化するためにパラメータプロセッサ(300)によって使用されるべき逆量子化精度から、符号化された仰角パラメータの処理のための仰角アルファベットを決定し、仰角アルファベットを使用して取得された仰角インデックスから、方位角アルファベットを決定するように構成され、
パラメータプロセッサ(300)が、方位角アルファベットを使用して、符号化された方位角パラメータを逆量子化するように構成される、
例18から30のいずれか1つのデコーダ。
32.符号化された拡散パラメータと符号化された方向パラメータとを含む指向性オーディオコーディングパラメータを含む符号化されたオーディオ信号を復号する方法であって、方法が、
第1の時間または周波数分解能を有する復号された拡散パラメータと、第2の時間または周波数分解能を有する復号された方向パラメータとを取得するために、符号化された指向性オーディオコーディングパラメータを復号するステップ(300)と、
符号化もしくは復号された拡散パラメータまたは符号化もしくは復号された方向パラメータを、第3の時間または周波数分解能を有する変換された拡散パラメータまたは変換された方向パラメータに変換するステップ(710)であって、第3の時間または周波数分解能が、第1の時間もしくは周波数分解能もしくは第2の時間もしくは周波数分解能、または、第1の時間もしくは周波数分解能および第2の時間もしくは周波数分解能と異なる、ステップ(710)と
を含む、方法。
33.コンピュータまたはプロセッサ上で実行されているときに、例17または32の方法を実行するためのコンピュータプログラム。
[1]V. Pulkki、M-V. Laitinen、J. Vilkamo、J. Ahonen、T. Lokki、およびT. Pihlajamaki、「Directional audio coding - perception-based reproduction of spatial sound」、International Workshop on the Principles and Application on Spatial Hearing、2009年11月、Zao;日本、宮城県。
[2]V. Pulkki、「Virtual source positioning using vector base amplitude panning」、J. Audio Eng. Soc., 45(6):456〜466、1997年6月。
[3]J. AhonenおよびV. Pulkki、「Diffuseness estimation using temporal variation of intensity vectors」、in Workshop on Applications of Signal Processing to Audio and Acoustics WASPAA、Mohonk Mountain House、New Paltz、2009年。
[4]T. Hirvonen、J. Ahonen、およびV. Pulkki、「Perceptual compression methods for metadata in Directional Audio Coding applied to audiovisual teleconference」、AES 126th Convention、2009年、5月7〜10日、ミュンヘン、ドイツ。
110 拡散性推定器
120 方向推定器
130 フィルタバンク
140 ビームフォーマ/信号セレクタ
150 オーディオエンコーダ
170 符号化されたオーディオ信号
200 空間メタデータエンコーダ、量子化器およびエンコーダプロセッサ
210 パラメータ量子化器
210a 量子化仰角関数
210b 量子化方位角関数
210c 逆量子化仰角関数、方位角関数
220 パラメータエンコーダ
230 出力インターフェース
241 低拡散性符号化モード
242 高拡散性符号化モード
243 混合拡散性符号化モード
248 変換
260 分解能指示、第1のコーディングモード
274 仰角平均ビット
300 空間メタデータデコーダ、パラメータプロセッサ
340 オーディオデコーダ、オーディオトランスポート信号デコーダ
400 DirAC合成器、合成フィルタバンク
420 出力合成器、オーディオレンダラ
430 分析フィルタバンク、フィルタバンク分析、時間-スペクトル変換器、時間/周波数変換器
440 合成フィルタバンク、フィルタバンク合成、スペクトル/時間変換器、オーディオレンダラ、
450 マルチチャネル信号、時間領域マルチチャネルオーディオ信号
710 パラメータ分解能変換器、分解能変換器
800 入力インターフェース
802 モードビット
804 ペイロードデータ
806 モードビット、モードフラグ
808 アイテム
808a アイテム、ビット
808b アイテム、ビット
808c Golomb-Rice方位角パラメータ、ビット
808d Golomb-Rice仰角パラメータ
808e 符号化された仰角距離
808f 符号化された方位角距離
808g アイテム
820 パラメータデコーダ
820a 投影計算動作
820b 仰角のための並べ替え手順
820c 加算演算
820d 仰角に関するブロック
820e 投影計算動作
820f 方位角のための並べ替え手順
820g 加算演算
820h 方位角に関するブロック
840 パラメータ逆量子化器、完全な逆量子化動作
Claims (47)
- 拡散パラメータと方向パラメータとを含む指向性オーディオコーディングパラメータを符号化するための装置であって、
前記拡散パラメータと前記方向パラメータとを量子化するためのパラメータ量子化器(210)と、
量子化された拡散パラメータと量子化された方向パラメータとを符号化するためのパラメータエンコーダ(220)と、
符号化された拡散パラメータおよび符号化された方向パラメータに関する情報を含む符号化されたパラメータ表現を生成するための出力インターフェース(230)と
を備える装置。 - 前記パラメータ量子化器(210)が、拡散インデックスを生成するために不均一量子化器を使用して前記拡散パラメータを量子化するように構成された、請求項1に記載の装置。
- 前記パラメータ量子化器(210)が、前記不均一量子化器のしきい値および再構成レベルを取得するためにチャネル間コヒーレンス量子化テーブルを使用して前記不均一量子化器を導出するように構成される、請求項2に記載の装置。
- 前記パラメータエンコーダ(220)が、
符号化アルファベットが2のべき乗であるサイズを有する場合、バイナリコードを使用して生コーディングモードにおいて前記量子化された拡散パラメータを符号化し、または
前記符号化アルファベットが2のべき乗とは異なる場合、パンクチャドコードを使用して前記生コーディングモードにおいて前記量子化された拡散パラメータを符号化し、または
第1の特定の指示と前記生コーディングモードからの1つの値に関するコードワードとを使用して、前記1つの値のみのモードにおいて前記量子化された拡散パラメータを符号化し、または
第2の特定の指示と、2つの連続する値の小さい方に関するコードと、1つのまたは各々の実際の値と前記2つの連続する値の前記小さい方との間の差に関するビットとを使用して、前記2つの連続する値のみのモードにおいて前記量子化された拡散パラメータを符号化する
ように構成される、請求項1から3のいずれか一項に記載の装置。 - 前記パラメータエンコーダ(220)が、時間部分または周波数部分に関連付けられたすべての拡散値について、コーディングモードが前記生コーディングモード、前記1つの値のみのモード、または前記2つの連続する値のみのモードのいずれであるかを決定するように構成され、
前記生モードが2つのビットのうちの1つを使用してシグナリングされ、前記1つの値のみのモードが、第1の値を有する前記2つのビットのうちの別のものを使用してシグナリングされ、前記2つの連続する値のみのモードが、第2の値を有する前記2つのビットのうちの別の1つを使用してシグナリングされる、
請求項4に記載の装置。 - 前記パラメータ量子化器(210)が、
方向パラメータごとに、2つまたは3つの成分を有するデカルトベクトルを受け取り、
前記デカルトベクトルを、方位角値と仰角値とを有する表現に変換する
ように構成される、請求項1から5のいずれか一項に記載の装置。 - 前記パラメータ量子化器(210)が、前記方向パラメータの前記量子化のために量子化精度を決定するように構成され、前記量子化精度は、より低い拡散パラメータに関連する方向パラメータがより高い拡散パラメータに関連する方向パラメータよりも正確に量子化されるように、前記方向パラメータに関連する拡散パラメータに依存する、請求項1から6のいずれか一項に記載の装置。
- 前記パラメータ量子化器(210)が、
量子化された点が単位球上に準均一に分布するように、または、
前記量子化された点がx軸、y軸、もしくはz軸に対して対称に分布するか、もしくは、
整数インデックスにマッピングすることによって、最も近い量子化点またはいくつかの最も近い量子化点のうちの1つへの所与の方向の量子化が、一定時間の動作であるように、または、
前記整数インデックスおよび方向への逆量子化からの前記球上の対応する点の計算が、前記球上の点の総数に対して一定または対数的な時間動作であるように、
前記量子化精度を決定するように構成される、請求項7に記載の装置。 - 前記パラメータ量子化器(210)が、正および負の値を有する仰角を符号なしの量子化インデックスのセットに量子化するように構成され、量子化インデックスの第1のグループが負の仰角を示し、量子化インデックスの第2のグループが正の仰角を示す、請求項6、7、または8に記載の装置。
- 前記パラメータ量子化器(210)が、いくつかの可能な量子化インデックスを使用して方位角を量子化するように構成され、第1の大きさを有する第1の仰角に関する第1の数の可能な量子化インデックスが、第2の大きさを有する第2の仰角に関する第2の数の可能な量子化インデックスよりも高くなるように、前記いくつかの量子化インデックスがより低い仰角からより高い仰角に減少し、前記第2の大きさが前記第1の大きさよりも絶対値において大きい、請求項1から9のいずれか一項に記載の装置。
- 前記パラメータ量子化器(210)が、
前記方位角に関連付けられた拡散値から必要な精度を決定し、
前記必要な精度を使用して前記方位角に関連付けられた仰角を量子化し、
前記量子化された仰角を使用して前記方位角を量子化する
ように構成される、請求項10に記載の装置。 - 前記量子化された方向パラメータが、量子化された仰角と量子化された方位角とを有し、前記パラメータエンコーダ(220)が、前記量子化された仰角を最初に符号化し、次いで、前記量子化された方位角を符号化するように構成される、請求項1から11のいずれか一項に記載の装置。
- 前記量子化された方向パラメータが、方位角と仰角のペアに関する符号なしのインデックスを含み、
前記パラメータエンコーダ(220)が、ゼロ角度を示すインデックスが可能な値の符号付き間隔の中央に位置するように、前記符号なしのインデックスを符号付きインデックスに変換するように構成され、
前記パラメータエンコーダ(220)が、正および負の数を符号なしの数にインタリーブするために、前記符号付きインデックスに対して並べ替え変換を実行するように構成される、
請求項1から12のいずれか一項に記載の装置。 - 前記量子化された方向パラメータが、並べ替えられたまたは並べ替えられていない符号なしの方位角および仰角インデックスを含み、
前記パラメータエンコーダ(220)が、前記ペアの前記インデックスを球インデックスにマージし、
前記球インデックスの生コーディングを実行する
ように構成される、請求項1から13のいずれか一項に記載の装置。 - 前記パラメータエンコーダ(220)が、球オフセットおよび現在の並べ替えられたまたは並べ替えられていない方位角インデックスから、前記球インデックスを導出するように構成され、
前記球オフセットが、前記現在の並べ替えられたまたは並べ替えられていない仰角インデックスよりも小さい並べ替えられたまたは並べ替えられていない仰角インデックスに対応する方位角アルファベットの合計から導出される、
請求項14に記載の装置。 - 前記パラメータエンコーダ(220)が、しきい値以下の拡散値に関連付けられた量子化された方向パラメータに対してエントロピーコーディングを実行し、
前記しきい値よりも大きい拡散値に関連付けられた量子化された方向パラメータに対して生コーディングを実行する
ように構成される、請求項1から15のいずれか一項に記載の装置。 - 前記パラメータエンコーダ(220)が、量子化アルファベットと前記拡散パラメータの前記量子化とを使用して前記しきい値を動的に決定するように構成されるか、または、
前記パラメータエンコーダ(220)が、前記拡散パラメータの前記量子化アルファベットに基づいて前記しきい値を決定するように構成される、
請求項16に記載の装置。 - 前記パラメータ量子化器(210)が、量子化された方向パラメータとして、仰角インデックスと、前記仰角インデックスに関連付けられた仰角アルファベットと、方位角インデックスと、前記方位角インデックスに関連付けられた方位角アルファベットとを決定するように構成され、
前記パラメータエンコーダ(220)が、
入力信号の時間部分もしくは周波数部分に関する量子化された方向ベクトルから平均方向ベクトルを導出し、
前記時間部分もしくは前記周波数部分に関する前記ベクトルの最高の角度精度を使用して前記平均方向ベクトルを量子化し、
前記量子化された平均方向ベクトルを符号化する
ように構成されるか、または、
前記出力インターフェース(230)が、追加のサイド情報として、前記符号化された平均方向ベクトルを前記符号化されたパラメータ表現に入れるように構成される、
請求項1から17のいずれか一項に記載の装置。 - 前記パラメータエンコーダ(220)が
前記平均方向ベクトルを使用して、予測された仰角インデックスと予測された方位角インデックスとを計算し、
前記仰角インデックスと前記予測された仰角インデックスとの間、および前記方位角インデックスと前記予測された方位角インデックスとの間の符号付き距離を計算する
ように構成される、請求項18に記載の装置。 - 前記パラメータエンコーダ(220)が、小さい値に関する値を加算し、大きい値に関する値を減算することによって、前記符号付き距離を低減された距離に変換するように構成される、請求項19に記載の装置。
- 前記パラメータエンコーダ(220)が、前記量子化された方向パラメータが生コーディングモードまたはエントロピーコーディングモードのいずれによって符号化されるかを決定するように構成され、
前記出力インターフェース(230)が、対応する指示を前記符号化されたパラメータ表現に導入するように構成される、
請求項1から20のいずれか一項に記載の装置。 - 前記パラメータエンコーダ(220)が、Golomb-Rice方法またはその修正形態を使用してエントロピーコーディングを実行するように構成される、請求項1から21のいずれか一項に記載の装置。
- 前記パラメータエンコーダ(220)が、
対応するゼロ値が可能な値の符号付き間隔の中央に位置するように、前記平均方向ベクトルの成分を符号付き表現に変換し、
正および負の数を符号なしの数にインタリーブするために、符号付き値の並べ替え変換を実行し、
前記平均方向ベクトルの符号化された成分を取得するために、符号化関数を使用して結果を符号化し、
前記方向ベクトルの対応する成分に関する最大のアルファベットサイズに応じたアルファベットサイズを使用してGolomb-Riceパラメータを符号化する
ように構成される、請求項18から22のいずれか一項に記載の装置。 - 前記パラメータエンコーダ(220)が、正および負の数を符号なしの数にインタリーブするために、前記符号付き距離または低減された符号付き距離の並べ替え変換を実行するように構成され、
前記パラメータエンコーダ(220)が、Golomb-Rice方法またはその修正形態を使用して、前記並べ替えられた符号付き距離または並べ替えられた低減された符号付き距離を符号化するように構成される、
請求項19から23のいずれか一項に記載の装置。 - 前記パラメータエンコーダ(220)が、
コーディングされるべき値の最上位部分と最下位部分とを決定することと、
前記最上位部分に関するアルファベットを計算することと、
前記最下位部分に関するアルファベットを計算することと、
前記最上位部分に関する前記アルファベットを使用して前記最上位部分を単項において符号化し、前記最下位部分に関する前記アルファベットを使用して前記最下位部分をバイナリにおいて符号化することと
を使用して、Golomb-Rice方法またはその修正形態を適用するように構成される、
請求項24に記載の装置。 - 前記パラメータエンコーダ(220)が、コーディングされるべき値の最上位部分と最下位部分との決定を使用し、前記最上位部分に関するアルファベットを計算して、Golomb-Rice方法またはその修正形態を適用するように構成され、
前記最上位部分の前記アルファベットが、3などの事前定義された値以下である場合、値全体を符号化するためにEncodeQuasiUniform方法が使用され、パンクチャドコードのような例示的なEncodeQuasiUniform方法が、1つの長さのみのコードもしくは2つの長さのみのコードを生成し、または、
前記パラメータエンコーダ(220)が、前記符号化アルファベットが2のべき乗のサイズを有する場合、バイナリコードを使用して生コーディングモードにおいて前記最下位部分を符号化し、もしくは、前記符号化アルファベットが2のべき乗とは異なる場合、パンクチャドコードを使用して前記生コーディングモードにおいて前記最下位部分を符号化する
ように構成される、
請求項1から25のいずれか一項に記載の装置。 - 上記の例1から15のうちのいずれか1つにおいて定義されるように、第1の時間または周波数分解能を用いて前記拡散パラメータを計算し、第2の時間または周波数分解能を用いて前記方向パラメータを計算するためのパラメータ計算機をさらに備える、請求項1から26のいずれか一項に記載の装置。
- 拡散パラメータと方向パラメータとを含む指向性オーディオコーディングパラメータを符号化する方法であって、
前記拡散パラメータと前記方向パラメータとを量子化するステップと、
量子化された拡散パラメータと量子化された方向パラメータとを符号化するステップと、
符号化された拡散パラメータおよび符号化された方向パラメータに関する情報を含む符号化されたパラメータ表現を生成するステップと
を含む方法。 - 符号化された拡散パラメータと符号化された方向パラメータとを含む符号化された指向性オーディオコーディングパラメータを含む符号化されたオーディオ信号を復号するためのデコーダであって、
前記符号化されたオーディオ信号を受け取り、前記符号化されたオーディオ信号から、前記符号化された拡散パラメータと前記符号化された方向パラメータとを分離するための入力インターフェース(800)と、
量子化された拡散パラメータと量子化された方向パラメータとを取得するために、前記符号化された拡散パラメータと前記符号化された方向パラメータとを復号するためのパラメータデコーダ(820)と、
前記量子化された拡散パラメータおよび前記量子化された方向パラメータから、逆量子化された拡散パラメータと逆量子化された方向パラメータとを決定するためのパラメータ逆量子化器(840)と
を備えるデコーダ。 - 前記入力インターフェース(800)が、前記符号化されたオーディオ信号内に含まれるコーディングモード指示(806)から、前記パラメータデコーダ(820)が、符号化された方向パラメータを復号するために、生復号モードである第1の復号モードか、または、モデル化を伴う復号モードであり、前記第1の復号モードとは異なる第2の復号モードのどちらを使用するかを決定するように構成される、請求項29に記載のデコーダ。
- 前記パラメータデコーダ(820)が、前記符号化されたオーディオ信号のフレームに関する量子化された拡散パラメータを取得するために、前記フレームに関する符号化された拡散パラメータ(804)を復号するように構成され、
前記逆量子化器(840)が、前記量子化されたまたは逆量子化された拡散パラメータを使用して、前記フレームに関する少なくとも1つの方向パラメータの逆量子化のための逆量子化精度を決定するように構成され、
前記パラメータ逆量子化器(840)が、前記逆量子化精度を使用して、量子化された方向パラメータを逆量子化するように構成される、
請求項29または30に記載のデコーダ。 - 前記パラメータデコーダ(820)が、逆量子化精度から、前記フレームに関する前記符号化された方向パラメータを復号するための復号アルファベットを決定するように構成され、
前記パラメータデコーダ(820)が、前記量子化された方向パラメータを取得するために、前記復号アルファベットを使用して、前記符号化された方向パラメータを復号するように構成される、
請求項29、30、または31に記載のデコーダ。 - 前記パラメータデコーダ(820)が、前記符号化された方向パラメータから、量子化された球インデックスを導出し、前記量子化された球インデックスを、量子化された仰角インデックスおよび量子化された方位角インデックスに分解するように構成される、請求項29から32のいずれか一項に記載のデコーダ。
- 前記パラメータデコーダ(820)が、
逆量子化精度から仰角アルファベットを決定するか、または、
量子化された仰角パラメータもしくは逆量子化された仰角パラメータから方位角アルファベットを決定する
ように構成される、請求項29から33のいずれか一項に記載のデコーダ。 - 前記パラメータデコーダ(820)が、
前記符号化された方向パラメータから、量子化された仰角パラメータを復号し、前記符号化された方向パラメータから、量子化された方位角パラメータを復号するように構成され、
前記パラメータ逆量子化器(840)が、前記量子化された仰角パラメータまたは逆量子化された仰角パラメータから、方位角アルファベットを決定するように構成され、前記方位角アルファベットのサイズが、第2の絶対仰角の仰角を示す仰角データと比較して、第1の絶対仰角の仰角を示す仰角データに関してより大きく、前記第2の絶対仰角が前記第1の絶対仰角よりも大きく、
前記パラメータデコーダ(820)が、量子化された方位角パラメータを生成するために前記方位角アルファベットを使用するように構成されるか、または、前記パラメータ逆量子化器が、前記量子化された方位角パラメータを逆量子化するために、前記方位角アルファベットを使用するように構成される、
請求項29から34のいずれか一項に記載のデコーダ。 - 前記入力インターフェース(800)が、前記符号化されたオーディオ信号内の復号モード指示(806)から、モデル化を伴う復号モードを決定するように構成され、
前記パラメータデコーダ(820)が、平均仰角インデックスまたは平均方位角インデックスを取得するように構成される、
請求項29から35のいずれか一項に記載のデコーダ。 - 前記パラメータデコーダ(820)が、フレームに関する量子化された拡散インデックスから、前記フレームに関する逆量子化精度を決定し(851)、
前記フレームに関する前記逆量子化精度から、仰角平均アルファベットまたは方位角平均アルファベットを決定し(852a)、
前記符号化されたオーディオ信号内のビット(808b)と前記仰角平均アルファベットとを使用して前記平均仰角インデックスを計算するか、または、前記符号化されたオーディオ信号内のビット(808a)と前記方位角平均アルファベットとを使用して前記平均方位角インデックスを計算する
ように構成される、請求項36に記載のデコーダ。 - 前記パラメータデコーダ(820)が、復号された仰角Golomb-Riceパラメータを取得するために、前記符号化されたオーディオ信号内の特定のビット(808c)を復号し、復号された仰角距離を取得するために、前記符号化されたオーディオ信号内のさらなるビット(808c)を復号するように構成され、
前記パラメータデコーダ(820)が、復号された方位角Golomb-Riceパラメータを取得するために、前記符号化されたオーディオ信号内の特定のビット(808a)を復号し、復号された方位角距離を取得するために、前記符号化されたオーディオ信号内のさらなるビット(808f)を復号するように構成され、
前記パラメータデコーダ(820)が、前記仰角Golomb-Riceパラメータ、および前記復号された仰角距離、および前記仰角平均インデックスから、量子化された仰角パラメータを計算するか、または、前記方位角Golomb-Riceパラメータ、および前記復号された方位角距離、および前記方位角平均インデックスから、量子化された方位角パラメータを計算するように構成される、
請求項36または37に記載のデコーダ。 - 前記パラメータデコーダ(820)が、量子化された拡散パラメータを取得するために、前記符号化されたオーディオ信号から、時間および周波数部分に関する拡散パラメータを復号する(850)ように構成され、
前記パラメータ逆量子化器(840)が、前記量子化されたまたは逆量子化された拡散パラメータから、逆量子化精度を決定する(851)ように構成され、
前記パラメータデコーダ(820)が、前記逆量子化精度から、仰角アルファベットを導出し(852a)、前記フレームの前記時間および周波数部分に関する量子化された仰角パラメータを取得するために前記仰角アルファベットを使用するように構成され、
前記逆量子化器が、前記フレームの前記時間および周波数部分に関する逆量子化された仰角パラメータを取得するために、前記仰角アルファベットを使用して、前記量子化された仰角パラメータを逆量子化するように構成される、
請求項29から38のいずれか一項に記載のデコーダ。 - 前記パラメータデコーダ(820)が、量子化された仰角パラメータを取得するために、符号化された方向パラメータを復号するように構成され、
前記パラメータ逆量子化器(840)が、前記量子化された仰角パラメータまたは逆量子化された仰角パラメータから、方位角アルファベットを決定する(852c)ように構成され、
前記パラメータデコーダ(820)が、前記方位角アルファベットを使用して、量子化された方位角パラメータを計算する(852d)ように構成されるか、または、前記パラメータ逆量子化器(840)が、前記方位角アルファベットを使用して、前記量子化された方位角パラメータを逆量子化するように構成される、
請求項29から39のいずれか一項に記載のデコーダ。 - 前記パラメータ逆量子化器(840)が、
逆量子化精度を使用して仰角アルファベットを決定し(852a)、
前記逆量子化精度と、前記仰角アルファベットを使用して生成された前記量子化または逆量子化された仰角パラメータを使用して、方位角アルファベットを決定する(852c)
ように構成され、
前記パラメータデコーダ(820)が、量子化された仰角パラメータを取得するために、前記符号化された方向パラメータを復号するために前記仰角アルファベットを使用し、量子化された方位角パラメータを取得するために、前記符号化された方向パラメータを復号するために前記方位角アルファベットを使用するように構成されるか、または、前記パラメータ逆量子化器(840)が、前記仰角アルファベットを使用して前記量子化された仰角パラメータを逆量子化し、前記方位角アルファベットを使用して前記量子化された方位角パラメータを逆量子化するように構成される、
請求項29から40のいずれか一項に記載のデコーダ。 - 前記パラメータデコーダ(820)が、
平均仰角インデックスまたは平均方位角インデックスを使用して、予測された仰角インデックスまたは予測された方位角インデックスを計算し、
方位角または仰角パラメータに関する距離を取得するために、Golomb-Rice復号動作またはその修正形態を実行し、
前記量子化された仰角インデックスまたは前記量子化された方位角インデックスを取得するために、前記方位角または仰角パラメータに関する前記距離を、前記平均仰角インデックスまたは前記平均方位角インデックスに加算する
ように構成される、請求項33に記載のデコーダ。 - 前記逆量子化された拡散パラメータの時間/周波数分解能、または、前記逆量子化された方位角もしくは仰角パラメータの時間もしくは周波数分解能、または、前記逆量子化された方位角パラメータもしくは逆量子化された仰角パラメータから導出されたパラメトリック表現を、ターゲット時間または周波数分解能に変換するためのパラメータ分解能変換器(710)と、
復号されたマルチチャネルオーディオ信号を取得するために、前記ターゲット時間または周波数分解能において前記拡散パラメータおよび前記方向パラメータをオーディオ信号に適用するためのオーディオレンダラ(420)と
をさらに備える、請求項29から42のいずれか一項に記載のデコーダ。 - 前記マルチチャネルオーディオ信号を、スペクトル領域表現から、前記ターゲット時間または周波数分解能の時間分解能よりも高い時間分解能を有する時間領域表現に変換するためのスペクトル/時間変換器(440)を備える、請求項43に記載のデコーダ。
- 前記符号化されたオーディオ信号が、符号化されたトランスポート信号を含み、前記入力インターフェース(800)が、前記符号化されたトランスポート信号を抽出するように構成され、
前記デコーダが、前記符号化されたトランスポート信号を復号するためのトランスポート信号オーディオデコーダ(340)を備え、
前記デコーダが、前記復号されたトランスポート信号をスペクトル表現に変換するための時間/スペクトル変換器(430)をさらに備え、
前記デコーダが、前記逆量子化された拡散パラメータと前記逆量子化された方向パラメータとを使用してマルチチャネルオーディオ信号をレンダリングするためのオーディオレンダラ(420、440)を備え、
前記デコーダが、レンダリングされたオーディオ信号を時間領域表現に変換するためのスペクトル/時間変換器(440)をさらに備える、
請求項29から44のいずれか一項に記載のデコーダ。 - 符号化された拡散パラメータと符号化された方向パラメータとを含む符号化された指向性オーディオコーディングパラメータを含む符号化されたオーディオ信号を復号するための方法であって、
前記符号化されたオーディオ信号を受け取り、前記符号化されたオーディオ信号から、前記符号化された拡散パラメータと前記符号化された方向パラメータとを分離するステップ(800)と、
量子化された拡散パラメータと量子化された方向パラメータとを取得するために、前記符号化された拡散パラメータと前記符号化された方向パラメータとを復号するステップ(820)と、
前記量子化された拡散パラメータおよび前記量子化された方向パラメータから、逆量子化された拡散パラメータと逆量子化された方向パラメータとを決定するステップ(840)と
を含む方法。 - コンピュータまたはプロセッサ上で実行されているとき、請求項28または46に記載の方法を実行するためのコンピュータプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022003012A JP7372360B2 (ja) | 2017-11-17 | 2022-01-12 | 量子化とエントロピーコーディングとを使用して指向性オーディオコーディングパラメータを符号化または復号するための装置および方法 |
JP2023179870A JP2024003010A (ja) | 2017-11-17 | 2023-10-18 | 量子化とエントロピーコーディングとを使用して指向性オーディオコーディングパラメータを符号化または復号するための装置および方法 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP17202393 | 2017-11-17 | ||
EP17202393.9 | 2017-11-17 | ||
PCT/EP2018/081623 WO2019097018A1 (en) | 2017-11-17 | 2018-11-16 | Apparatus and method for encoding or decoding directional audio coding parameters using quantization and entropy coding |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022003012A Division JP7372360B2 (ja) | 2017-11-17 | 2022-01-12 | 量子化とエントロピーコーディングとを使用して指向性オーディオコーディングパラメータを符号化または復号するための装置および方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021503628A true JP2021503628A (ja) | 2021-02-12 |
JP7175980B2 JP7175980B2 (ja) | 2022-11-21 |
Family
ID=60515115
Family Applications (5)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020526987A Active JP7175979B2 (ja) | 2017-11-17 | 2018-11-16 | 様々な時間/周波数分解能を使用して指向性オーディオコーディングパラメータを符号化または復号するための装置および方法 |
JP2020526994A Active JP7175980B2 (ja) | 2017-11-17 | 2018-11-16 | 量子化とエントロピーコーディングとを使用して指向性オーディオコーディングパラメータを符号化または復号するための装置および方法 |
JP2022003012A Active JP7372360B2 (ja) | 2017-11-17 | 2022-01-12 | 量子化とエントロピーコーディングとを使用して指向性オーディオコーディングパラメータを符号化または復号するための装置および方法 |
JP2022133236A Pending JP2022171686A (ja) | 2017-11-17 | 2022-08-24 | 様々な時間/周波数分解能を使用して指向性オーディオコーディングパラメータを符号化または復号するための装置および方法 |
JP2023179870A Pending JP2024003010A (ja) | 2017-11-17 | 2023-10-18 | 量子化とエントロピーコーディングとを使用して指向性オーディオコーディングパラメータを符号化または復号するための装置および方法 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020526987A Active JP7175979B2 (ja) | 2017-11-17 | 2018-11-16 | 様々な時間/周波数分解能を使用して指向性オーディオコーディングパラメータを符号化または復号するための装置および方法 |
Family Applications After (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022003012A Active JP7372360B2 (ja) | 2017-11-17 | 2022-01-12 | 量子化とエントロピーコーディングとを使用して指向性オーディオコーディングパラメータを符号化または復号するための装置および方法 |
JP2022133236A Pending JP2022171686A (ja) | 2017-11-17 | 2022-08-24 | 様々な時間/周波数分解能を使用して指向性オーディオコーディングパラメータを符号化または復号するための装置および方法 |
JP2023179870A Pending JP2024003010A (ja) | 2017-11-17 | 2023-10-18 | 量子化とエントロピーコーディングとを使用して指向性オーディオコーディングパラメータを符号化または復号するための装置および方法 |
Country Status (19)
Country | Link |
---|---|
US (4) | US11367454B2 (ja) |
EP (3) | EP3711047B1 (ja) |
JP (5) | JP7175979B2 (ja) |
KR (3) | KR102599743B1 (ja) |
CN (3) | CN117351970A (ja) |
AR (2) | AR113525A1 (ja) |
AU (2) | AU2018368588B2 (ja) |
BR (2) | BR112020011026A2 (ja) |
CA (2) | CA3083891C (ja) |
ES (1) | ES2930374T3 (ja) |
FI (1) | FI3711047T3 (ja) |
MX (2) | MX2020005044A (ja) |
PL (1) | PL3711047T3 (ja) |
PT (1) | PT3711047T (ja) |
RU (2) | RU2763313C2 (ja) |
SG (2) | SG11202004430YA (ja) |
TW (3) | TWI752281B (ja) |
WO (2) | WO2019097018A1 (ja) |
ZA (2) | ZA202003473B (ja) |
Families Citing this family (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7175979B2 (ja) * | 2017-11-17 | 2022-11-21 | フラウンホファー ゲセルシャフト ツール フェールデルンク ダー アンゲヴァンテン フォルシュンク エー.ファオ. | 様々な時間/周波数分解能を使用して指向性オーディオコーディングパラメータを符号化または復号するための装置および方法 |
GB2572761A (en) | 2018-04-09 | 2019-10-16 | Nokia Technologies Oy | Quantization of spatial audio parameters |
GB2575305A (en) * | 2018-07-05 | 2020-01-08 | Nokia Technologies Oy | Determination of spatial audio parameter encoding and associated decoding |
JP2022511156A (ja) | 2018-11-13 | 2022-01-31 | ドルビー ラボラトリーズ ライセンシング コーポレイション | オーディオ信号及び関連するメタデータによる空間オーディオの表現 |
GB2585187A (en) * | 2019-06-25 | 2021-01-06 | Nokia Technologies Oy | Determination of spatial audio parameter encoding and associated decoding |
GB2586214A (en) * | 2019-07-31 | 2021-02-17 | Nokia Technologies Oy | Quantization of spatial audio direction parameters |
GB2586461A (en) * | 2019-08-16 | 2021-02-24 | Nokia Technologies Oy | Quantization of spatial audio direction parameters |
GB2586586A (en) | 2019-08-16 | 2021-03-03 | Nokia Technologies Oy | Quantization of spatial audio direction parameters |
CN110660401B (zh) * | 2019-09-02 | 2021-09-24 | 武汉大学 | 一种基于高低频域分辨率切换的音频对象编解码方法 |
GB2587196A (en) | 2019-09-13 | 2021-03-24 | Nokia Technologies Oy | Determination of spatial audio parameter encoding and associated decoding |
CN114391257A (zh) * | 2019-09-25 | 2022-04-22 | 松下电器(美国)知识产权公司 | 编码装置、解码装置、编码方法和解码方法 |
GB2590650A (en) * | 2019-12-23 | 2021-07-07 | Nokia Technologies Oy | The merging of spatial audio parameters |
GB2590651A (en) | 2019-12-23 | 2021-07-07 | Nokia Technologies Oy | Combining of spatial audio parameters |
GB2590913A (en) * | 2019-12-31 | 2021-07-14 | Nokia Technologies Oy | Spatial audio parameter encoding and associated decoding |
GB2592896A (en) * | 2020-01-13 | 2021-09-15 | Nokia Technologies Oy | Spatial audio parameter encoding and associated decoding |
GB2595871A (en) * | 2020-06-09 | 2021-12-15 | Nokia Technologies Oy | The reduction of spatial audio parameters |
GB2595883A (en) * | 2020-06-09 | 2021-12-15 | Nokia Technologies Oy | Spatial audio parameter encoding and associated decoding |
KR20220012724A (ko) | 2020-07-23 | 2022-02-04 | 효성티앤에스 주식회사 | 매체 입금기의 번들모듈 |
GB2598104A (en) * | 2020-08-17 | 2022-02-23 | Nokia Technologies Oy | Discontinuous transmission operation for spatial audio parameters |
GB2598773A (en) * | 2020-09-14 | 2022-03-16 | Nokia Technologies Oy | Quantizing spatial audio parameters |
GB202014572D0 (en) * | 2020-09-16 | 2020-10-28 | Nokia Technologies Oy | Spatial audio parameter encoding and associated decoding |
EP4264603A1 (en) * | 2020-12-15 | 2023-10-25 | Nokia Technologies Oy | Quantizing spatial audio parameters |
CA3208666A1 (en) * | 2021-01-18 | 2022-07-21 | Nokia Technologies Oy | Transforming spatial audio parameters |
CN115038027B (zh) * | 2021-03-05 | 2023-07-07 | 华为技术有限公司 | Hoa系数的获取方法和装置 |
JP2024512953A (ja) * | 2021-03-22 | 2024-03-21 | ノキア テクノロジーズ オサケユイチア | 空間音声ストリームの結合 |
WO2022223133A1 (en) * | 2021-04-23 | 2022-10-27 | Nokia Technologies Oy | Spatial audio parameter encoding and associated decoding |
WO2023147864A1 (en) | 2022-02-03 | 2023-08-10 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method to transform an audio stream |
FR3132811A1 (fr) * | 2022-02-14 | 2023-08-18 | Orange | Codage et décodage de coordonnées sphériques utilisant un dictionnaire de quantification sphérique optimisé |
WO2023179846A1 (en) * | 2022-03-22 | 2023-09-28 | Nokia Technologies Oy | Parametric spatial audio encoding |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007034230A (ja) * | 2005-07-29 | 2007-02-08 | Sony Corp | 音声符号化装置及び方法、並びに音声復号装置及び方法 |
JP2007532934A (ja) * | 2004-01-23 | 2007-11-15 | マイクロソフト コーポレーション | 広義知覚類似性(wide−senseperceptualsimilarity)を使用するデジタルメディアスペクトルデータの効率的なコーディング |
JP2011530720A (ja) * | 2008-08-13 | 2011-12-22 | フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ | 空間オーディオストリームをマージするための装置 |
JP2012526296A (ja) * | 2009-05-08 | 2012-10-25 | フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン | 音声フォーマット・トランスコーダ |
JP2013514696A (ja) * | 2009-12-17 | 2013-04-25 | フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ | 第1のパラメトリック空間オーディオ信号を第2のパラメトリック空間オーディオ信号に変換する装置および方法 |
JP2014506416A (ja) * | 2010-12-22 | 2014-03-13 | ジェノーディオ,インコーポレーテッド | オーディオ空間化および環境シミュレーション |
WO2014192602A1 (ja) * | 2013-05-31 | 2014-12-04 | ソニー株式会社 | 符号化装置および方法、復号装置および方法、並びにプログラム |
JP2020526987A (ja) * | 2017-07-13 | 2020-08-31 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | 低電力水晶発振器 |
Family Cites Families (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6446037B1 (en) * | 1999-08-09 | 2002-09-03 | Dolby Laboratories Licensing Corporation | Scalable coding method for high quality audio |
US6678647B1 (en) * | 2000-06-02 | 2004-01-13 | Agere Systems Inc. | Perceptual coding of audio signals using cascaded filterbanks for performing irrelevancy reduction and redundancy reduction with different spectral/temporal resolution |
FR2810476B1 (fr) | 2000-06-14 | 2002-10-11 | De Palluel Darcel Vince Crette | Balises multifonctions d'emissions/reception et/ou de reemissions, des signaux codes ou non par emetteurs recepteurs d'ondes avec capteurs realises en technologie mikrotelec |
JP2006003580A (ja) * | 2004-06-17 | 2006-01-05 | Matsushita Electric Ind Co Ltd | オーディオ信号符号化装置及びオーディオ信号符号化方法 |
US7974713B2 (en) * | 2005-10-12 | 2011-07-05 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Temporal and spatial shaping of multi-channel audio signals |
EP1852848A1 (en) * | 2006-05-05 | 2007-11-07 | Deutsche Thomson-Brandt GmbH | Method and apparatus for lossless encoding of a source signal using a lossy encoded data stream and a lossless extension data stream |
AU2007312597B2 (en) * | 2006-10-16 | 2011-04-14 | Dolby International Ab | Apparatus and method for multi -channel parameter transformation |
US8908873B2 (en) * | 2007-03-21 | 2014-12-09 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Method and apparatus for conversion between multi-channel audio formats |
US20080232601A1 (en) * | 2007-03-21 | 2008-09-25 | Ville Pulkki | Method and apparatus for enhancement of audio reconstruction |
US8290167B2 (en) * | 2007-03-21 | 2012-10-16 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Method and apparatus for conversion between multi-channel audio formats |
ATE518224T1 (de) * | 2008-01-04 | 2011-08-15 | Dolby Int Ab | Audiokodierer und -dekodierer |
US8897359B2 (en) | 2008-06-03 | 2014-11-25 | Microsoft Corporation | Adaptive quantization for enhancement layer video coding |
WO2010005050A1 (ja) * | 2008-07-11 | 2010-01-14 | 日本電気株式会社 | 信号分析装置、信号制御装置及びその方法と、プログラム |
EP2144231A1 (en) | 2008-07-11 | 2010-01-13 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Low bitrate audio encoding/decoding scheme with common preprocessing |
WO2011000409A1 (en) * | 2009-06-30 | 2011-01-06 | Nokia Corporation | Positional disambiguation in spatial audio |
US8897455B2 (en) | 2010-02-18 | 2014-11-25 | Qualcomm Incorporated | Microphone array subset selection for robust noise reduction |
EP2540101B1 (en) * | 2010-02-26 | 2017-09-20 | Nokia Technologies Oy | Modifying spatial image of a plurality of audio signals |
ES2656815T3 (es) | 2010-03-29 | 2018-02-28 | Fraunhofer-Gesellschaft Zur Förderung Der Angewandten Forschung | Procesador de audio espacial y procedimiento para proporcionar parámetros espaciales en base a una señal de entrada acústica |
US9530421B2 (en) | 2011-03-16 | 2016-12-27 | Dts, Inc. | Encoding and reproduction of three dimensional audio soundtracks |
CN102760437B (zh) * | 2011-04-29 | 2014-03-12 | 上海交通大学 | 实时声道控制转换的音频解码装置 |
CN104054126B (zh) * | 2012-01-19 | 2017-03-29 | 皇家飞利浦有限公司 | 空间音频渲染和编码 |
PL2965540T3 (pl) | 2013-03-05 | 2019-11-29 | Fraunhofer Ges Forschung | Urządzenie i sposób wielokanałowego rozkładu na sygnał bezpośredni i sygnał otoczenia dla przetwarzania sygnału audio |
US9466305B2 (en) * | 2013-05-29 | 2016-10-11 | Qualcomm Incorporated | Performing positional analysis to code spherical harmonic coefficients |
US9854377B2 (en) * | 2013-05-29 | 2017-12-26 | Qualcomm Incorporated | Interpolation for decomposed representations of a sound field |
US9384741B2 (en) * | 2013-05-29 | 2016-07-05 | Qualcomm Incorporated | Binauralization of rotated higher order ambisonics |
US20150127354A1 (en) * | 2013-10-03 | 2015-05-07 | Qualcomm Incorporated | Near field compensation for decomposed representations of a sound field |
US20150332682A1 (en) * | 2014-05-16 | 2015-11-19 | Qualcomm Incorporated | Spatial relation coding for higher order ambisonic coefficients |
CN106023999B (zh) * | 2016-07-11 | 2019-06-11 | 武汉大学 | 用于提高三维音频空间参数压缩率的编解码方法及系统 |
GB2554446A (en) * | 2016-09-28 | 2018-04-04 | Nokia Technologies Oy | Spatial audio signal format generation from a microphone array using adaptive capture |
CN109274969B (zh) * | 2017-07-17 | 2020-12-22 | 华为技术有限公司 | 色度预测的方法和设备 |
JP7175979B2 (ja) | 2017-11-17 | 2022-11-21 | フラウンホファー ゲセルシャフト ツール フェールデルンク ダー アンゲヴァンテン フォルシュンク エー.ファオ. | 様々な時間/周波数分解能を使用して指向性オーディオコーディングパラメータを符号化または復号するための装置および方法 |
GB2577698A (en) | 2018-10-02 | 2020-04-08 | Nokia Technologies Oy | Selection of quantisation schemes for spatial audio parameter encoding |
-
2018
- 2018-11-16 JP JP2020526987A patent/JP7175979B2/ja active Active
- 2018-11-16 EP EP18803985.3A patent/EP3711047B1/en active Active
- 2018-11-16 KR KR1020207017247A patent/KR102599743B1/ko active IP Right Grant
- 2018-11-16 KR KR1020207017280A patent/KR102535997B1/ko active IP Right Grant
- 2018-11-16 CA CA3083891A patent/CA3083891C/en active Active
- 2018-11-16 MX MX2020005044A patent/MX2020005044A/es unknown
- 2018-11-16 EP EP22192222.2A patent/EP4113512A1/en active Pending
- 2018-11-16 JP JP2020526994A patent/JP7175980B2/ja active Active
- 2018-11-16 AU AU2018368588A patent/AU2018368588B2/en active Active
- 2018-11-16 RU RU2020119761A patent/RU2763313C2/ru active
- 2018-11-16 BR BR112020011026-4A patent/BR112020011026A2/pt unknown
- 2018-11-16 ES ES18803985T patent/ES2930374T3/es active Active
- 2018-11-16 FI FIEP18803985.3T patent/FI3711047T3/fi active
- 2018-11-16 EP EP18803987.9A patent/EP3711048A1/en active Pending
- 2018-11-16 SG SG11202004430YA patent/SG11202004430YA/en unknown
- 2018-11-16 SG SG11202004389VA patent/SG11202004389VA/en unknown
- 2018-11-16 CA CA3084225A patent/CA3084225C/en active Active
- 2018-11-16 MX MX2020005045A patent/MX2020005045A/es unknown
- 2018-11-16 CN CN202311255126.9A patent/CN117351970A/zh active Pending
- 2018-11-16 BR BR112020011035-3A patent/BR112020011035A2/pt unknown
- 2018-11-16 RU RU2020119762A patent/RU2763155C2/ru active
- 2018-11-16 CN CN201880086689.0A patent/CN111656441B/zh active Active
- 2018-11-16 KR KR1020237024617A patent/KR20230110842A/ko not_active Application Discontinuation
- 2018-11-16 WO PCT/EP2018/081623 patent/WO2019097018A1/en active Search and Examination
- 2018-11-16 PT PT188039853T patent/PT3711047T/pt unknown
- 2018-11-16 CN CN201880086690.3A patent/CN111656442A/zh active Pending
- 2018-11-16 AU AU2018368589A patent/AU2018368589B2/en active Active
- 2018-11-16 WO PCT/EP2018/081620 patent/WO2019097017A1/en active Search and Examination
- 2018-11-16 PL PL18803985.3T patent/PL3711047T3/pl unknown
- 2018-11-19 TW TW107141081A patent/TWI752281B/zh active
- 2018-11-19 TW TW110129069A patent/TWI759240B/zh active
- 2018-11-19 TW TW107141079A patent/TWI708241B/zh active
- 2018-11-20 AR ARP180103392A patent/AR113525A1/es active IP Right Grant
- 2018-11-20 AR ARP180103391A patent/AR113524A1/es active IP Right Grant
-
2020
- 2020-05-06 US US16/867,856 patent/US11367454B2/en active Active
- 2020-05-11 US US16/871,223 patent/US11783843B2/en active Active
- 2020-06-10 ZA ZA2020/03473A patent/ZA202003473B/en unknown
- 2020-06-10 ZA ZA2020/03476A patent/ZA202003476B/en unknown
-
2022
- 2022-01-10 US US17/571,970 patent/US20220130404A1/en active Pending
- 2022-01-12 JP JP2022003012A patent/JP7372360B2/ja active Active
- 2022-08-24 JP JP2022133236A patent/JP2022171686A/ja active Pending
-
2023
- 2023-08-28 US US18/456,670 patent/US20230410819A1/en active Pending
- 2023-10-18 JP JP2023179870A patent/JP2024003010A/ja active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007532934A (ja) * | 2004-01-23 | 2007-11-15 | マイクロソフト コーポレーション | 広義知覚類似性(wide−senseperceptualsimilarity)を使用するデジタルメディアスペクトルデータの効率的なコーディング |
JP2007034230A (ja) * | 2005-07-29 | 2007-02-08 | Sony Corp | 音声符号化装置及び方法、並びに音声復号装置及び方法 |
JP2011530720A (ja) * | 2008-08-13 | 2011-12-22 | フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ | 空間オーディオストリームをマージするための装置 |
JP2012526296A (ja) * | 2009-05-08 | 2012-10-25 | フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン | 音声フォーマット・トランスコーダ |
JP2013514696A (ja) * | 2009-12-17 | 2013-04-25 | フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ | 第1のパラメトリック空間オーディオ信号を第2のパラメトリック空間オーディオ信号に変換する装置および方法 |
JP2014506416A (ja) * | 2010-12-22 | 2014-03-13 | ジェノーディオ,インコーポレーテッド | オーディオ空間化および環境シミュレーション |
WO2014192602A1 (ja) * | 2013-05-31 | 2014-12-04 | ソニー株式会社 | 符号化装置および方法、復号装置および方法、並びにプログラム |
JP2020526987A (ja) * | 2017-07-13 | 2020-08-31 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | 低電力水晶発振器 |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7372360B2 (ja) | 量子化とエントロピーコーディングとを使用して指向性オーディオコーディングパラメータを符号化または復号するための装置および方法 | |
US8046214B2 (en) | Low complexity decoder for complex transform coding of multi-channel sound | |
JPWO2006022190A1 (ja) | オーディオエンコーダ |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200714 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210629 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210712 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20211007 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220112 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220425 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220725 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221011 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221109 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7175980 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |