JP6313439B2 - ダウンミックス行列を復号及び符号化するための方法、音声コンテンツを呈示するための方法、ダウンミックス行列のためのエンコーダ及びデコーダ、音声エンコーダ及び音声デコーダ - Google Patents
ダウンミックス行列を復号及び符号化するための方法、音声コンテンツを呈示するための方法、ダウンミックス行列のためのエンコーダ及びデコーダ、音声エンコーダ及び音声デコーダ Download PDFInfo
- Publication number
- JP6313439B2 JP6313439B2 JP2016525036A JP2016525036A JP6313439B2 JP 6313439 B2 JP6313439 B2 JP 6313439B2 JP 2016525036 A JP2016525036 A JP 2016525036A JP 2016525036 A JP2016525036 A JP 2016525036A JP 6313439 B2 JP6313439 B2 JP 6313439B2
- Authority
- JP
- Japan
- Prior art keywords
- gain
- value
- downmix matrix
- speaker
- matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 239000011159 matrix material Substances 0.000 title claims description 239
- 238000000034 method Methods 0.000 title claims description 78
- 238000013507 mapping Methods 0.000 claims description 26
- 230000001174 ascending effect Effects 0.000 claims description 21
- 230000005236 sound signal Effects 0.000 claims description 6
- 238000000926 separation method Methods 0.000 claims description 3
- 230000001131 transforming effect Effects 0.000 claims 1
- 238000009877 rendering Methods 0.000 description 35
- 238000013459 approach Methods 0.000 description 24
- 230000006870 function Effects 0.000 description 19
- 238000004590 computer program Methods 0.000 description 10
- 238000006243 chemical reaction Methods 0.000 description 9
- 238000013139 quantization Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 7
- 230000004044 response Effects 0.000 description 7
- 239000000463 material Substances 0.000 description 5
- 238000003860 storage Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 108010076504 Protein Sorting Signals Proteins 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 239000000969 carrier Substances 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- PEIBAWRLFPGPAT-UHFFFAOYSA-N 1-(diazomethyl)pyrene Chemical compound C1=C2C(C=[N+]=[N-])=CC=C(C=C3)C2=C2C3=CC=CC2=C1 PEIBAWRLFPGPAT-UHFFFAOYSA-N 0.000 description 1
- 101100018996 Caenorhabditis elegans lfe-2 gene Proteins 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000002592 echocardiography Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/18—Vocoders using multiple modes
- G10L19/20—Vocoders using multiple modes using sound class specific coding, hybrid encoders or object based coding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/008—Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/005—Correction of errors induced by the transmission channel, if related to the coding algorithm
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/0204—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using subband decomposition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/0212—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using orthogonal transformation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/022—Blocking, i.e. grouping of samples in time; Choice of analysis windows; Overlap factoring
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/022—Blocking, i.e. grouping of samples in time; Choice of analysis windows; Overlap factoring
- G10L19/025—Detection of transients or attacks for time/frequency resolution switching
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/028—Noise substitution, i.e. substituting non-tonal spectral components by noisy source
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/083—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being an excitation gain
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Mathematical Physics (AREA)
- Stereophonic System (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Circuit For Audible Band Transducer (AREA)
Description
ここで、(1)は、ビットベクトルが0で終わる場合の仮想の終端を表す。上に示すラン長は、適切な符号化方式、例えば可変長プレフィックス符号を各々の数に割り当てる限定的ゴロム・ライス符号化、を用いて符号化することによって全体ビット長を最小化することができる。ゴロム・ライス符号化アプローチは、以下のように、負でない整数パラメータp≧0を用いて負でない整数n≧0を符号化するために用いられる。最初に、数
h=n/2p
は、単項符号化を用いて符号化され、h個の1のビットの後に終端のゼロ・ビットが続く。次に、pビットを用いて数l=n−h・2pを均一に符号化する。
hmax=(N−1)/2p
を符号化する際に終端のゼロ・ビットを含まない。より正確には、h=hmaxを符号化するためには、終端のゼロ・ビットのないh個の1のビットのみを用いる。終端のゼロ・ビットは、デコーダがこの状態を黙示的に検出できるため、必要ではない。
次に、このリストを、例えば限定的ゴロム・ライス符号化を用いて符号化することができる。図6に関して説明した実施例と比較して、このリストは、より効率的に符号化することができることが分かる。コンパクト行列がテンプレート行列と同一である最善の場合、ベクトル全体はゼロのみから構成され、1つのラン長の数を符号化するだけで良い。
0, -3, -6, -1, -2, -4, -5, 1, 2, -0.5, -1.5, -2.5, -3.5, -4.5, -5.5, 0.5, 1.5
昇順:[空白]
降順:1,−2,−4,−5
昇順:2
降順:0.5,−0.5,−1.5,−2.5,−3.5,−4.5,−5.5
昇順:1.5
ゲイン値を符号化する場合、好ましくは、表の中でゲインを見つけて、その表内の位置を出力する。所望のゲインが常に見つかるが、それは、全てのゲインが、例えば1dB、0.5dB又は0.25dBといった特定された精度の最も近い整数倍数へ予め量子化されているからである。好ましい実施例によると、ゲイン値の位置には、表内の位置を示すインデックスが関連付けられ、ゲインのインデックスは、例えば限定的ゴロム・ライス符号化アプローチを用いて符号化され得る。その結果、大きなインデックスよりも小さなビット数を用いるための小さなインデックスが得られ、このようにして、頻繁に用いられる値、又は典型的な値、例えば0dB、−3dB又は−6dBは、最も小さいビット数を用いることになり、より「丸め誤差の少ない」値、例えば−4dBは、それほど丸め誤差の少なくない数(例えば−4.5dB)よりも小さなビット数を用いることになる。従って、上述の実施例を用いることによって、音声コンテンツの制作者が所望のゲインリストを生成できるだけでなく、これらのゲインが極めて効率的に符号化され得ることによって、更に別の実施例に従って上述のアプローチ全てを適用した場合、極めて効率的なダウンミックス行列の符号化が達成され得る。
表5−DownmixMatrixの各要素
フィールド:
paramConfig,
inputConfig,
outputConfig
記述・値:
各々のスピーカーについての情報を特定するチャネル構成ベクトル。各々の成分paramConfig[i]は、以下のメンバーを有する構造である。
‐AzimuthAngle、スピーカー方位角の絶対値
‐AzimuthDirection、方位方向、0(左)又は1(右)
‐ElevationAngle、スピーカー仰角の絶対値
‐ElevationDirection、仰角方向、0(上方向)又は1(下方向)
‐alreadyUsed、スピーカーが既に群の一部であることを示す。
‐isLFE、スピーカーがLFEスピーカーであるか否かを示す。
フィールド:
paramCount,
inputCount,
outputCount
記述・値:
対応するチャネル構成ベクトルにおけるスピーカー数
フィールド:
compactParamConfig,
compactInputConfig,
compactOutputConfig
記述・値:
各々のスピーカー群についての情報を特定するコンパクトチャネル構成ベクトル。各々の成分 compactParamConfig[i]は、以下のメンバーを有する構造である。
‐pairType、スピーカー群の種類。SYMMETRIC(2つのスピーカーの対称対)、CENTER、又はASYMMETRICのいずれかであり得る。
‐isLFE、スピーカー群がLFEスピーカーから構成されるか否かを示す。
‐originalPosition、群内の最初のスピーカー又は唯一のスピーカーの元のチャネル構成における位置
‐symmetricPair.originalPosition、SYMMETRIC群のみについて、群内の2番目のスピーカーの元のチャネル構成における位置
フィールド:
compactParamCount,
compactInputCount,
compactOutputCount
記述・値:
対応するコンパクトチャネル構成ベクトルにおけるスピーカー群の数
フィールド:
equalizerPresent
記述・値:
入力チャネルに適用されることになるイコライザ情報が存在するか否かを示すブーリアン
フィールド:
precisionLevel
記述・値:
ゲインの均一な量子化に用いられる精度。0=1dB、1=0.5dB、2=0.25dB、3は予備。
フィールド:
maxGain
記述・値:
dBで表現される行列内の実際の最大ゲイン。0〜22、線形1…12.589で可能な値。
フィールド:
minGain
記述・値:
dBで表現される行列内の実際の最小ゲイン。−1〜−47、線形0.891…0.004で可能な値。
フィールド:
isAllSeparable
記述・値:
出力スピーカー群全てが分離性の特性を満たすか否かを示すブーリアン
フィールド:
isSeparable[i]
記述・値:
インデックスiを有する出力スピーカー群が分離性の特性を満たすか否かを示すブーリアン
フィールド:
isAllSymmetric
記述・値:
出力スピーカー群全てが対称性の特性を満たすか否かを示すブーリアン
フィールド:
isSymmetric[i]
記述・値:
インデックスiを有する出力スピーカー群が対称性の特性を満たすか否かを示すブーリアン
フィールド:
mixLFEOnlyToLFE
記述・値:
LFEスピーカーがLFEスピーカーのみに混合されると同時に非LFEスピーカーが非LFEスピーカーのみに混合されるか否かを示すブーリアン
フィールド:
rawCodingCompactMatrix
記述・値:
compactDownmixMatrixが、符号化された未加工(1成分当り1ビットを使用)か、又はラン長の符号化とそれに続く限定的ゴロム・ライスとを用いて符号化されているかを示すブーリアン
フィールド:
compactDownmixMatrix[i][j]
記述・値:
入力スピーカー群i及び出力スピーカー群jに対応するcompactDownmixMatrix内の成分であって、関連付けられたゲインのいずれかが非ゼロか否かを示す。
0=全てのゲインがゼロ、1=少なくとも1つのゲインが非ゼロ
フィールド:
useCompactTemplate
記述・値:
ラン長符号化の効率性を向上させるために、予め規定されたコンパクトテンプレート行列を用いて要素単位のXORをcompactDownmixMatrixに適用するか否かを示すブーリアン。
フィールド:
runLGRParam
記述・値:
線形化されたflatCompactMatrixにおけるゼロ・ラン長を符号化するために用いられる限定的ゴロム・ライスパラメータ
フィールド:
flatCompactMatrix
記述・値:
既に適用された、予め規定されたコンパクトテンプレート行列を有するcompactDownmixMatrixの線形化バージョン。mixLFEOnlyToLFEが動作している場合、(非LFE及びFLE間の混合により)ゼロであると分かっている成分、又はLFEからLFEへの混合に用いられるものを含まない。
フィールド:
compactTemplate
記述・値:
予め規定されたコンパクトテンプレート行列。「典型的な」成分を有し、compactDownmixMatrixへと要素単位でXOR演算され、ほとんど全てがゼロの値の成分を作成することにより符号化効率を向上させる。
フィールド:
zeroRunLength
記述・値:
常に1が続くゼロ・ランの長さ。flatCompactMatrixにおけるもの。パラメータrunLGRParamを用いて、限定的ゴロム・ライス符号化によって符号化される。
フィールド:
fullForAsymmetricInputs
記述・値:
各々全ての非対象の入力スピーカー群についての対称性の特性を無視するか否かを示すブーリアン。動作している場合、各々全ての非対称入力スピーカー群は、isSymmetric[i]に関わらず、インデックスiを有する各々の対称出力スピーカー群について復号された2つのゲイン値を有する。
フィールド:
gainTable
記述・値:
precisionLevelの精度によってminGainとmaxGainとの間の全ての可能なゲインのリストを含む、動的に生成されたゲイン表
フィールド:
rawCodingNonzeros
記述・値:
非ゼロのゲイン値が符号化された未加工のものか(均一な符号化、ReadRange関数を用いる)、又はそれらのgainTableリストにおけるインデックスが限定的ゴロム・ライス符号化を用いて符号化されたものかを示すブーリアン
フィールド:
gainLGRParam
記述・値:
非ゼロのゲインインデックスを符号化するために用いられる限定的ゴロム・ライスパラメータ。gainTableリストにおける各々のゲインを探索することによって計算される。
ゴロム・ライス符号化は、以下のように、所与の負でない整数パラメータp≧0を用いて、任意の負でない整数n≧0を符号化するために用いられる。最初に、数
h=n/2p
を、単項符号化を用いて符号化し、h個の1のビットの後に終端のゼロ・ビットが続く。次に、pビットを用いて数l=n−h・2pを均一に符号化する。
hmax=(N−1)/2p
を符号化する際に終端のゼロ・ビットを含まない。より正確には、h=hmaxを符号化するためには、h個の1のビットのみを書くが、終端のゼロ・ビットは書かない。終端のゼロ・ビットは、デコーダがこの状態を黙示的に検出できるため、必要ではない。
ConvertToCompactConfig(paramConfig, paramCount)
{
for (i = 0; i < paramCount; ++i) {
paramConfig[i].alreadyUsed = 0;
}
idx = 0;
for (i = 0; i < paramCount; ++i) {
if (paramConfig[i].alreadyUsed) continue;
compactParamConfig[idx].isLFE = paramConfig[i].isLFE;
if ((paramConfig[i].AzimuthAngle == 0) ||
(paramConfig[i].AzimuthAngle == 180°) {
compactParamConfig[idx].pairType = CENTER;
compactParamConfig[idx].originalPosition = i;
} else {
j = SearchForSymmetricSpeaker(paramConfig, paramCount, i);
if (j != -1) {
compactParamConfig[idx].pairType = SYMMETRIC;
if (paramConfig.AzimuthDirection == 0) {
compactParamConfig[idx].originalPosition = i;
compactParamConfig[idx].symmetricPair.originalPosition = j;
} else {
compactParamConfig[idx].originalPosition = j;
compactParamConfig[idx].symmetricPair.originalPosition = i;
}
paramConfig[j].alreadyUsed = 1;
} else {
compactParamConfig[idx].pairType = ASYMMETRIC;
compactParamConfig[idx].originalPosition = i;
}
}
idx++;
}
compactParamCount = idx;
}
関数FindCompactTemplate(inputConfig,inputCount,outputConfig,outputCount)は、inputConfig及びinputCountによって表される入力チャネル構成と、outputConfig及びoutputCountによって表される出力チャネル構成とをマッチングするコンパクトテンプレート行列を見つけるために用いられる。
フィールド:
numEqualizers
記述・値:
存在するそれぞれ異なる等化フィルタの数
フィールド:
eqPrecisionLevel
記述・値:
ゲインの均一な量子化に用いられる精度。0=1dB, 1=0.5dB,2=0.25dB,3=0.1dB
フィールド:
eqExtendedRange
記述・値:
ゲインについての拡張された範囲を用いるか否かを示すブーリアン。動作している場合は、利用可能な範囲は2倍にされる。
フィールド:
numSections
記述・値:
等化フィルタのセクションの数。各セクションはピークフィルタである。
フィールド:
centerFreqLd2
記述・値:
ピークフィルタについての中央周波数の最初の2つの10進数。最大範囲は10…99である。
フィールド:
centerFreqP10
記述・値:
centerFreqLd2に付加されるゼロの数。最大範囲は0…3である。
フィールド:
qFactorIndex
記述・値:
ピークフィルタについての品質因数インデックス
フィールド:
qFactorExtra
記述・値:
1.0よりも大きい品質因数を復号するための余分なビット
フィールド:
centerGainIndex
記述・値:
ピークフィルタについての中央周波数でのゲイン
フィールド:
scalingGainIndex
記述・値:
等化フィルタについてのスケーリングゲイン
フィールド:
hasEqualizer[i]
記述・値:
インデックスiを有する入力チャネルにイコライザが関連付けられているか否かを示すブーリアン
フィールド:
eqalizerIndex[i]
記述・値:
インデックスiを有する入力チャネルに関連付けられたイコライザのインデックス
以下、実施例による復号プロセスの局面について説明する。まず、ダウンミックス行列の復号から説明する。
eqPrecisions[4] = {1.0, 0.5, 0.25, 0.1}
eqMinRanges[2][4] = {{-8.0, -8.0, -8.0, -6.4}, {-16.0, -16.0, -16.0, -12.8}}
eqMaxRanges[2][4] = {{7.0, 7.5, 7.75, 6.3}, {15.0, 15.5, 15.75, 12.7}}
パラメータscalingGainは、精度レベルmin(eqPrecisionLevel+1,3)を用い、これは、既に最後のものでなければ次善の精度レベルである。フィールドcenterGainIndex及びscalingGainIndexからゲインパラメータcenterGain及びscalingGainへのマッピングは、
参考文献
[1]Information technology - Coding of audio-visual objects - Part 3: Audio, AMENDMENT 4: New levels for AAC profiles, ISO/IEC 14496-3:2009/DAM 4, 2013
[2]ITU-R BS.775-3, “Multichannel stereophonic sound system with and without accompanying picture,” Rec., International Telecommunications Union, Geneva, Switzerland, 2012
[3]K. Hamasaki, T. Nishiguchi, R. Okumura, Y. Nakayama and A. Ando, "A 22.2 Multichannel Sound System for Ultrahigh-definition TV (UHDTV)," SMPTE Motion Imaging J., pp. 40-49, 2008
[4]ITU-R Report BS.2159-4, “Multichannel sound technology in home and broadcasting applications”, 2012
[5]Enhanced audio support and other improvements, ISO/IEC 14496-12:2012 PDAM 3, 2013
[6]International Standard ISO/IEC 23003-3:2012, Information technology - MPEG audio technologies - Part 3: Unified Speech and Audio Coding, 2012
[7]International Standard ISO/IEC 23001-8:2013, Information technology - MPEG systems technologies - Part 8: Coding-independent code points, 2013
Claims (32)
- 音声コンテンツについての複数の入力チャネル(300)を複数の出力チャネル(302)に対してマッピングするためのダウンミックス行列(306)を復号するための方法であって、前記入力チャネル(300)及び前記出力チャネル(302)は、聴取者の位置に対して所定の位置にあるそれぞれのスピーカーに関連付けられ、前記ダウンミックス行列(306)は、前記複数の入力チャネル(300)のスピーカー対(S1〜S9)の対称性と、前記複数の出力チャネル(302)のスピーカー対(S10〜S11)の対称性とを活用することによって符号化され、前記方法は、
前記符号化されたダウンミックス行列(306)を表す符号化情報をエンコーダから受信するステップと、
前記復号されたダウンミックス行列(306)を得るための前記符号化情報を復号するステップと、を備え、
前記ダウンミックス行列(306)における入力チャネル(300)及び出力チャネル(302)のそれぞれの対(S1〜S11)には、所与の入力チャネル(300)が所与の出力チャネル(302)に寄与するレベルを適合させるためのそれぞれの混合ゲインが関連付けられ、
前記方法は、更に、
前記ダウンミックス行列(306)を表す情報から、符号化された有意性値を復号するステップを備え、それぞれの有意性値は、前記入力チャネル(300)の対称スピーカー群及び前記出力チャネル(302)の対称スピーカー群の対(S1〜S11)に割り当てられ、前記有意性値は、前記入力チャネル(300)のうちの1つ以上についての混合ゲインがゼロか否かを示し、前記方法は、更に、
前記ダウンミックス行列(306)を表す情報から、符号化された混合ゲインを復号するステップを備える、
方法。 - 前記有意性値は、ゼロの混合ゲインを示す第1の値と、ゼロでない混合ゲインを示す第2の値とを含み、
前記有意性値を符号化するステップは、予め規定された順番で前記有意性値を連結する1次元ベクトルであって、ラン長符号化された前記1次元ベクトルをデコードするステップを含む、
請求項1に記載の方法。 - 前記有意性値をデコードするステップは、テンプレート有意性値が関連付けられた、前記入力チャネル(300)のスピーカー群及び前記出力チャネル(302)のスピーカー群の同じ対を有するテンプレートに基づく、
請求項1に記載の方法。 - 前記有意性値及び前記テンプレート有意性値を論理的に組み合わせ、有意性値とテンプレート有意性値とが同一であることを第1の値で示すとともに有意性値とテンプレート有意性値とが異なることを第2の値で示す、1次元ベクトルであって、ラン長符号化された前記1次元ベクトルをデコードするステップを備える、
請求項3に記載の方法。 - 前記ラン長符号化された前記1次元ベクトルをデコードするステップは、ラン長を含むリストを前記1次元ベクトルに変換するステップを含み、ラン長は、前記第2の値によって終結される連続する第1の値の数である、
請求項2又は請求項4に記載の方法。 - 前記ラン長は、ゴロム・ライス符号化又は限定的ゴロム・ライス符号化を用いて符号化される、
請求項2、請求項4又は請求項5に記載の方法。 - 前記ダウンミックス行列(306)を復号することは、
前記ダウンミックス行列(306)において、出力チャネル(302)の各群について、対称性の特性及び分離性の特性が満足されるか否かを示すダウンミックス行列情報を表す情報から、1群の出力チャネル(302)が単一の入力チャネル(300)からの同じゲインと混合されること、又は1群の出力チャネル(302)が1群の入力チャネル(300)から等しく混合されること、を示す対称性の特性と、それぞれの左側又は右側で全ての信号を保持しながら、1群の出力チャネル(302)が1群の入力チャネル(300)から混合されることを示す分離性の特性と、を復号するステップを備える、
請求項1から請求項6のいずれかに記載の方法。 - 前記対称性の特性及び前記分離性の特性を満足させる出力チャネル(302)の群について、単一の混合ゲインが与えられる、
請求項7に記載の方法。 - 前記混合ゲインを保持するリストを提供するステップを備え、各々の混合ゲインが前記リスト中のインデックスに関連付けられ、前記方法は、更に、
前記ダウンミックス行列(306)を表す情報から前記リスト中のインデックスを復号するステップと、
前記リストにある復号されたインデックスに従って前記リストから前記混合ゲインを選択するステップと、を備える、
請求項1から請求項8のいずれかに記載の方法。 - 前記インデックスは、ゴロム・ライス符号化又は限定的ゴロム・ライス符号化を用いて符号化される、
請求項9に記載の方法。 - 前記リストを提供するステップは、
前記ダウンミックス行列(306)を表す情報から、最小ゲイン値、最大ゲイン値及び所望の精度を復号するステップと、
前記最小ゲイン値及び前記最大ゲイン値間の複数のゲイン値を含むリストを作成するステップと、を備え、前記ゲイン値は、前記所望の精度を有するように提供され、前記ゲイン値が典型的に使用される頻度が高いほど、前記ゲイン値は前記リストの先頭に近くなり、前記リストの先頭は最も小さいインデックスを有する、
請求項9又は請求項10に記載の方法。 - 前記ゲイン値のリストは、以下のように作成され、即ち、
‐前記最小ゲイン(これを含む)と開始ゲイン値(これを含む)との間で降順に、最初のゲイン値である第1のゲイン値の整数倍数を加算し、
‐前記開始ゲイン値(これを含む)と前記最大ゲイン(これを含む)との間で昇順に、前記第1のゲイン値の残りの整数倍数を加算し、
‐前記最小ゲイン(これを含む)と前記開始ゲイン値(これを含む)との間で降順に、第1の精度レベルの残りの整数倍数を加算し、
‐前記開始ゲイン値(これを含む)と前記最大ゲイン(これを含む)との間で昇順に、前記第1の精度レベルの残りの整数倍数を加算し、
‐精度レベルが前記第1の精度レベルであれば、ここで停止し、
‐前記最小ゲイン(これを含む)と前記開始ゲイン値(これを含む)との間で降順に、第2の精度レベルの残りの整数倍数を加算し、
‐前記開始ゲイン値(これを含む)と前記最大ゲイン(これを含む)との間で昇順に、前記第2の精度レベルの残りの整数倍数を加算し、
‐精度レベルが前記第2の精度レベルであれば、ここで停止し、
‐前記最小ゲイン(これを含む)と前記開始ゲイン値(これを含む)との間で降順に、第3の精度レベルの残りの整数倍数を加算し、
‐前記開始ゲイン値(これを含む)と前記最大ゲイン(これを含む)との間で昇順に、前記第3の精度レベルの残りの整数倍数を加算する、
請求項11に記載の方法。 - 前記開始ゲイン値=0dBであり、前記第1のゲイン値=3dBであり、前記第1の精度レベル=1dBであり、前記第2の精度レベル=0.5dBであり、前記第3の精度レベル=0.25dBである、
請求項12に記載の方法。 - 対称スピーカー対(S1〜S9)に関連付けられたダウンミックス行列(306)にある入力チャネル(300)と、対称スピーカー対(S10〜S11)に関連付けられたダウンミックス行列(306)にある出力チャネル(302)とが、共通の列又は行にグループ付けられている、コンパクト行列をデコードするステップを含み、
前記コンパクト行列をデコードするステップは、
前記符号化された有意性値と、前記符号化された混合ゲインを受信するステップと、
前記符号化された有意性値をデコードし、前記デコードされたコンパクトダウンミックス行列(308)を生成し、前記混合ゲインをデコードするステップと、
前記デコードされた混合ゲインをゲインがゼロではないことを示す、対応する有意性値に割り当てるステップと、
前記デコードされたダウンミックス行列(306)を取得するためにグループ化された前記入力チャネル(300)と前記出力チャネル(302)とをグループ解除するステップと、
を含む、
請求項1に記載の方法。 - 音声コンテンツについての複数の入力チャネル(300)を複数の出力チャネル(302)に対してマッピングするためのダウンミックス行列(306)を符号化するための方法であって、前記入力チャネル及び前記出力チャネル(300、302)は、聴取者の位置に対して所定の位置にあるそれぞれのスピーカーに関連付けられ、
前記ダウンミックス行列を符号化するステップは、前記ダウンミックス行列(306)は、前記複数の入力チャネル(300)のスピーカー対(S1〜S9)の対称性と、前記複数の出力チャネル(302)のスピーカー対(S10〜S11)の対称性とを活用するステップを備え、
前記ダウンミックス行列(306)の入力チャネル及び出力チャネル(300、302)のそれぞれの対(S1〜S11)は、所与の入力チャネル(300)が所与の出力チャネル(302)に寄与するレベルを適用するために、それぞれの混合ゲインを関連付け、
それぞれの有意性値は、前記入力チャネル(300)の対称スピーカー群と、前記出力チャネル(302)の対称スピーカー群との対(S1〜S11)に割り当てられており、前記有意性値は、1以上の前記入力チャネル(300)の混合ゲインがゼロであるか否かを示すものであり、
前記方法は、さらに、
前記有意性値を符号化するステップと、
前記混合ゲインを符号化するステップと、
を備える、
方法。 - 前記有意性値は、ゼロの混合ゲインを示す第1の値と、ゼロでない混合ゲインを示す第2の値とを含み、前記有意性値を符号化するステップは、
予め規定された順番で前記有意性値を連結することで1次元ベクトルを形成するステップと、
ラン長方式を用いて前記1次元ベクトルを符号化するステップと、
を含む、
請求項15に記載の方法。 - 前記有意性値を符号化するステップは、
テンプレート有意性値が関連付けられた、前記入力チャネル(300)のスピーカー群及び前記出力チャネル(302)のスピーカー群の同じ対を有するテンプレートに基づき、それらにテンプレート有意性値を関連付ける、
請求項15に記載の方法。 - 有意性値とテンプレート有意性値とが同一であることを第1の値で示すとともに有意性値とテンプレート有意性値とが異なることを第2の値で示す1次元ベクトルを生成するために、前記有意性値及び前記テンプレート有意性値を論理的に組み合わせるステップと、
ラン長方式によって前記1次元ベクトルを符号化するステップと、
を備える、
請求項17に記載の方法。 - 前記1次元ベクトルを符号化するステップは、
前記1次元ベクトルを、ラン長を含むリストに変換するステップを含み、
ラン長は、前記第2の値によって終結される連続する第1の値の数である、
請求項16又は請求項18に記載の方法。 - 前記ラン長は、ゴロム・ライス符号化又は限定的ゴロム・ライス符号化を用いて符号化される、
請求項16、請求項18又は請求項19に記載の方法。 - 前記ダウンミックス行列(306)を符号化するステップは、
対称スピーカー対(S1〜S9)に関連付けられたダウンミックス行列(306)にある入力チャネル(300)と、対称スピーカー対(S10〜S11)に関連付けられたダウンミックス行列(306)にある出力チャネル(302)とを、共通の列又は行にグループ付けすることによって、前記ダウンミックス行列をコンパクトダウンミックス行列(308)に変換するステップと、
前記コンパクトダウンミックス行列(308)を符号化するステップと、
を含む、
請求項15から請求項20のいずれかに記載の方法。 - スピーカーの所定の位置は、前記聴取者の位置に対して前記スピーカー位置の方位角及び仰角に応じて規定され、
対称スピーカー対(S1〜S11)は、同じ仰角を有し、かつ、絶対値は同じであるが正負符号が異なる方位角を有するスピーカーによって構成されている、
請求項1から請求項21のいずれかに記載の方法。 - 前記入力チャネル及び前記出力チャネル(302)は、更に、1つ以上のセンタースピーカー及び1つ以上の非対称スピーカーに関連付けられたチャネルを含み、
非対称スピーカーは、前記入力チャネル及び前記出力チャネル(302)によって規定された構成において別の対称スピーカーを有さない、
請求項1から請求項22のいずれかに記載の方法。 - 複数の入力チャネル(300)を有する音声コンテンツを、前記入力チャネル(300)とは異なる複数の出力チャネル(302)を有するシステムに呈示するための方法であって、
前記方法は、
前記入力チャネル(300)を前記出力チャネル(302)に対してマッピングするために、前記音声コンテンツ及びダウンミックス行列(306)を提供するステップと、
前記音声コンテンツを符号化するステップと、
請求項15の記載に基づく前記ダウンミックス行列(306)を符号化するステップと、
前記符号化された音声コンテンツ及び前記符号化されたダウンミックス行列(306)を前記システムに送信するステップと、
前記音声コンテンツを復号するステップと、
請求項1の記載に基づく前記ダウンミックス行列(306)を復号するステップと、
前記復号されたダウンミックス行列(306)を用いて前記音声コンテンツの入力チャネル(300)を前記システムの出力チャネル(302)に対してマッピングするステップと、
を備え、
前記ダウンミックス行列(306)は、請求項1から請求項19のいずれかに記載の方法に従って符号化又は復号される、
方法。 - 前記ダウンミックス行列(306)はユーザによって特定される、
請求項24に記載の方法。 - 更に、前記入力チャネル(300)又はダウンミックス行列要素(304)に関連付けられたイコライザ・パラメータを送信するステップを備える、
請求項24又は請求項25に記載の方法。 - 請求項1から請求項26のいずれかに記載の方法をコンピュータに実行させるためのプログラム。
- 音声コンテンツについての複数の入力チャネル(300)を複数の出力チャネル(302)に対してマッピングするためのダウンミックス行列(306)を符号化するためのエンコーダであって、前記入力チャネル及び前記出力チャネル(302)は、聴取者の位置に対して所定の位置にあるそれぞれのスピーカーに関連付けられ、
前記エンコーダは、
請求項15の記載に基づく前記ダウンミックス行列(306)を符号化するように構成されたプロセッサを備える、
エンコーダ。 - 音声コンテンツについての複数の入力チャネル(300)を複数の出力チャネル(302)に対してマッピングするためのダウンミックス行列(306)を復号するためのデコーダであって、前記入力チャネル及び前記出力チャネル(302)は、聴取者の位置に対して所定の位置にあるそれぞれのスピーカーに関連付けられ、前記ダウンミックス行列(306)は、前記複数の入力チャネル(300)のスピーカー対(S1〜S9)の対称性と、前記複数の出力チャネル(302)のスピーカー対(S10〜S11)の対称性とを活用することによって符号化され、
前記デコーダは、
請求項1の記載に従い動作するように構成されたプロセッサを備える、
デコーダ。 - 音声信号を符号化するための音声エンコーダであって、請求項28のエンコーダを備える音声エンコーダ。
- 符号化された音声信号を復号するための音声デコーダであって、
前記音声デコーダは、請求項29に記載のデコーダを含む、
音声デコーダ。 - 前記復号されたダウンミックス行列(306)を受信するためのデコーダに結合されて、前記受信された復号ダウンミックス行列(306)に従って前記復号音声信号のフォーマットを変換するように動作する、フォーマット変換部を備える、
請求項31に記載の音声デコーダ。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP20130189770 EP2866227A1 (en) | 2013-10-22 | 2013-10-22 | Method for decoding and encoding a downmix matrix, method for presenting audio content, encoder and decoder for a downmix matrix, audio encoder and audio decoder |
EP13189770.4 | 2013-10-22 | ||
PCT/EP2014/071929 WO2015058991A1 (en) | 2013-10-22 | 2014-10-13 | Method for decoding and encoding a downmix matrix, method for presenting audio content, encoder and decoder for a downmix matrix, audio encoder and audio decoder |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016538585A JP2016538585A (ja) | 2016-12-08 |
JP6313439B2 true JP6313439B2 (ja) | 2018-04-25 |
Family
ID=49474267
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016525036A Active JP6313439B2 (ja) | 2013-10-22 | 2014-10-13 | ダウンミックス行列を復号及び符号化するための方法、音声コンテンツを呈示するための方法、ダウンミックス行列のためのエンコーダ及びデコーダ、音声エンコーダ及び音声デコーダ |
Country Status (19)
Country | Link |
---|---|
US (4) | US9947326B2 (ja) |
EP (2) | EP2866227A1 (ja) |
JP (1) | JP6313439B2 (ja) |
KR (1) | KR101798348B1 (ja) |
CN (2) | CN105723453B (ja) |
AR (1) | AR098152A1 (ja) |
AU (1) | AU2014339167B2 (ja) |
BR (1) | BR112016008787B1 (ja) |
CA (1) | CA2926986C (ja) |
ES (1) | ES2655046T3 (ja) |
MX (1) | MX353997B (ja) |
MY (1) | MY176779A (ja) |
PL (1) | PL3061087T3 (ja) |
PT (1) | PT3061087T (ja) |
RU (1) | RU2648588C2 (ja) |
SG (1) | SG11201603089VA (ja) |
TW (1) | TWI571866B (ja) |
WO (1) | WO2015058991A1 (ja) |
ZA (1) | ZA201603298B (ja) |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2830052A1 (en) | 2013-07-22 | 2015-01-28 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Audio decoder, audio encoder, method for providing at least four audio channel signals on the basis of an encoded representation, method for providing an encoded representation on the basis of at least four audio channel signals and computer program using a bandwidth extension |
EP2866227A1 (en) | 2013-10-22 | 2015-04-29 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Method for decoding and encoding a downmix matrix, method for presenting audio content, encoder and decoder for a downmix matrix, audio encoder and audio decoder |
EP3285257A4 (en) | 2015-06-17 | 2018-03-07 | Samsung Electronics Co., Ltd. | Method and device for processing internal channels for low complexity format conversion |
US10607622B2 (en) * | 2015-06-17 | 2020-03-31 | Samsung Electronics Co., Ltd. | Device and method for processing internal channel for low complexity format conversion |
CN107787509B (zh) * | 2015-06-17 | 2022-02-08 | 三星电子株式会社 | 处理低复杂度格式转换的内部声道的方法和设备 |
EP3453190A4 (en) | 2016-05-06 | 2020-01-15 | DTS, Inc. | SYSTEMS FOR IMMERSIVE AUDIO PLAYBACK |
JP7003924B2 (ja) * | 2016-09-20 | 2022-01-21 | ソニーグループ株式会社 | 情報処理装置と情報処理方法およびプログラム |
US10075789B2 (en) * | 2016-10-11 | 2018-09-11 | Dts, Inc. | Gain phase equalization (GPEQ) filter and tuning methods for asymmetric transaural audio reproduction |
US10659906B2 (en) * | 2017-01-13 | 2020-05-19 | Qualcomm Incorporated | Audio parallax for virtual reality, augmented reality, and mixed reality |
US10979844B2 (en) * | 2017-03-08 | 2021-04-13 | Dts, Inc. | Distributed audio virtualization systems |
JP7224302B2 (ja) * | 2017-05-09 | 2023-02-17 | ドルビー ラボラトリーズ ライセンシング コーポレイション | マルチチャネル空間的オーディオ・フォーマット入力信号の処理 |
WO2019004524A1 (ko) * | 2017-06-27 | 2019-01-03 | 엘지전자 주식회사 | 6자유도 환경에서 오디오 재생 방법 및 오디오 재생 장치 |
JP7222668B2 (ja) * | 2017-11-17 | 2023-02-15 | 日本放送協会 | 音響処理装置及びプログラム |
BR112020012648A2 (pt) | 2017-12-19 | 2020-12-01 | Dolby International Ab | métodos e sistemas de aparelhos para aprimoramentos de decodificação de fala e áudio unificados |
GB2571572A (en) * | 2018-03-02 | 2019-09-04 | Nokia Technologies Oy | Audio processing |
KR20240033290A (ko) * | 2018-04-11 | 2024-03-12 | 돌비 인터네셔널 에이비 | 오디오 렌더링을 위한 사전 렌더링된 신호를 위한 방법, 장치 및 시스템 |
JP7504091B2 (ja) | 2018-11-02 | 2024-06-21 | ドルビー・インターナショナル・アーベー | オーディオ・エンコーダおよびオーディオ・デコーダ |
GB2582749A (en) * | 2019-03-28 | 2020-10-07 | Nokia Technologies Oy | Determination of the significance of spatial audio parameters and associated encoding |
EP4014506B1 (en) | 2019-08-15 | 2023-01-11 | Dolby International AB | Methods and devices for generation and processing of modified audio bitstreams |
CN114303392A (zh) * | 2019-08-30 | 2022-04-08 | 杜比实验室特许公司 | 多声道音频信号的声道标识 |
GB2593672A (en) * | 2020-03-23 | 2021-10-06 | Nokia Technologies Oy | Switching between audio instances |
Family Cites Families (64)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6108633A (en) * | 1996-05-03 | 2000-08-22 | Lsi Logic Corporation | Audio decoder core constants ROM optimization |
US6697491B1 (en) * | 1996-07-19 | 2004-02-24 | Harman International Industries, Incorporated | 5-2-5 matrix encoder and decoder system |
US20040062401A1 (en) * | 2002-02-07 | 2004-04-01 | Davis Mark Franklin | Audio channel translation |
US6522270B1 (en) * | 2001-12-26 | 2003-02-18 | Sun Microsystems, Inc. | Method of coding frequently occurring values |
US7447317B2 (en) * | 2003-10-02 | 2008-11-04 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V | Compatible multi-channel coding/decoding by weighting the downmix channel |
US20090299756A1 (en) * | 2004-03-01 | 2009-12-03 | Dolby Laboratories Licensing Corporation | Ratio of speech to non-speech audio such as for elderly or hearing-impaired listeners |
EP1914722B1 (en) * | 2004-03-01 | 2009-04-29 | Dolby Laboratories Licensing Corporation | Multichannel audio decoding |
EP1735774B1 (en) * | 2004-04-05 | 2008-05-14 | Koninklijke Philips Electronics N.V. | Multi-channel encoder |
SE0400998D0 (sv) | 2004-04-16 | 2004-04-16 | Cooding Technologies Sweden Ab | Method for representing multi-channel audio signals |
US8843378B2 (en) * | 2004-06-30 | 2014-09-23 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Multi-channel synthesizer and method for generating a multi-channel output signal |
TWI393121B (zh) * | 2004-08-25 | 2013-04-11 | Dolby Lab Licensing Corp | 處理一組n個聲音信號之方法與裝置及與其相關聯之電腦程式 |
JP4794448B2 (ja) * | 2004-08-27 | 2011-10-19 | パナソニック株式会社 | オーディオエンコーダ |
US8204261B2 (en) * | 2004-10-20 | 2012-06-19 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Diffuse sound shaping for BCC schemes and the like |
SE0402650D0 (sv) * | 2004-11-02 | 2004-11-02 | Coding Tech Ab | Improved parametric stereo compatible coding of spatial audio |
US7787631B2 (en) * | 2004-11-30 | 2010-08-31 | Agere Systems Inc. | Parametric coding of spatial audio with cues based on transmitted channels |
US7903824B2 (en) * | 2005-01-10 | 2011-03-08 | Agere Systems Inc. | Compact side information for parametric coding of spatial audio |
JP4610650B2 (ja) * | 2005-03-30 | 2011-01-12 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 多チャンネルオーディオ符号化 |
ATE421845T1 (de) * | 2005-04-15 | 2009-02-15 | Dolby Sweden Ab | Zeitliche hüllkurvenformgebung von entkorrelierten signalen |
JP4988716B2 (ja) * | 2005-05-26 | 2012-08-01 | エルジー エレクトロニクス インコーポレイティド | オーディオ信号のデコーディング方法及び装置 |
MX2007015118A (es) * | 2005-06-03 | 2008-02-14 | Dolby Lab Licensing Corp | Aparato y metodo para codificacion de senales de audio con instrucciones de decodificacion. |
US8121836B2 (en) * | 2005-07-11 | 2012-02-21 | Lg Electronics Inc. | Apparatus and method of processing an audio signal |
CN101248483B (zh) * | 2005-07-19 | 2011-11-23 | 皇家飞利浦电子股份有限公司 | 多声道音频信号的生成 |
US7974713B2 (en) * | 2005-10-12 | 2011-07-05 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Temporal and spatial shaping of multi-channel audio signals |
KR100888474B1 (ko) * | 2005-11-21 | 2009-03-12 | 삼성전자주식회사 | 멀티채널 오디오 신호의 부호화/복호화 장치 및 방법 |
WO2007083952A1 (en) * | 2006-01-19 | 2007-07-26 | Lg Electronics Inc. | Method and apparatus for processing a media signal |
CN102693727B (zh) * | 2006-02-03 | 2015-06-10 | 韩国电子通信研究院 | 用于控制音频信号的渲染的方法 |
US7965848B2 (en) * | 2006-03-29 | 2011-06-21 | Dolby International Ab | Reduced number of channels decoding |
US8027479B2 (en) * | 2006-06-02 | 2011-09-27 | Coding Technologies Ab | Binaural multi-channel decoder in the context of non-energy conserving upmix rules |
MY151722A (en) * | 2006-07-07 | 2014-06-30 | Fraunhofer Ges Forschung | Concept for combining multiple parametrically coded audio sources |
CA2874451C (en) * | 2006-10-16 | 2016-09-06 | Dolby International Ab | Enhanced coding and parameter representation of multichannel downmixed object coding |
CN101529504B (zh) * | 2006-10-16 | 2012-08-22 | 弗劳恩霍夫应用研究促进协会 | 多通道参数转换的装置和方法 |
DE102006050068B4 (de) * | 2006-10-24 | 2010-11-11 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zum Erzeugen eines Umgebungssignals aus einem Audiosignal, Vorrichtung und Verfahren zum Ableiten eines Mehrkanal-Audiosignals aus einem Audiosignal und Computerprogramm |
KR101111520B1 (ko) * | 2006-12-07 | 2012-05-24 | 엘지전자 주식회사 | 오디오 처리 방법 및 장치 |
EP2111616B1 (en) * | 2007-02-14 | 2011-09-28 | LG Electronics Inc. | Method and apparatus for encoding an audio signal |
JP5220840B2 (ja) * | 2007-03-30 | 2013-06-26 | エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート | マルチチャネルで構成されたマルチオブジェクトオーディオ信号のエンコード、並びにデコード装置および方法 |
DE102007018032B4 (de) * | 2007-04-17 | 2010-11-11 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Erzeugung dekorrelierter Signale |
ES2452348T3 (es) * | 2007-04-26 | 2014-04-01 | Dolby International Ab | Aparato y procedimiento para sintetizar una señal de salida |
CN101816191B (zh) * | 2007-09-26 | 2014-09-17 | 弗劳恩霍夫应用研究促进协会 | 用于提取环境信号的装置和方法 |
ES2461601T3 (es) * | 2007-10-09 | 2014-05-20 | Koninklijke Philips N.V. | Procedimiento y aparato para generar una señal de audio binaural |
DE102007048973B4 (de) * | 2007-10-12 | 2010-11-18 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zum Erzeugen eines Multikanalsignals mit einer Sprachsignalverarbeitung |
EP2082396A1 (en) * | 2007-10-17 | 2009-07-29 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Audio coding using downmix |
WO2009084914A1 (en) * | 2008-01-01 | 2009-07-09 | Lg Electronics Inc. | A method and an apparatus for processing an audio signal |
US7733245B2 (en) * | 2008-06-25 | 2010-06-08 | Aclara Power-Line Systems Inc. | Compression scheme for interval data |
EP2154911A1 (en) * | 2008-08-13 | 2010-02-17 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | An apparatus for determining a spatial output multi-channel audio signal |
MX2011002626A (es) * | 2008-09-11 | 2011-04-07 | Fraunhofer Ges Forschung | Aparato, metodo y programa de computadora para proveer un conjunto de pistas espaciales en base a una señal de microfono y aparato para proveer una señal de audio de dos canales y un conjunto de pistas especiales. |
US8798776B2 (en) * | 2008-09-30 | 2014-08-05 | Dolby International Ab | Transcoding of audio metadata |
EP2175670A1 (en) * | 2008-10-07 | 2010-04-14 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Binaural rendering of a multi-channel audio signal |
CN105225667B (zh) * | 2009-03-17 | 2019-04-05 | 杜比国际公司 | 编码器系统、解码器系统、编码方法和解码方法 |
US8000485B2 (en) * | 2009-06-01 | 2011-08-16 | Dts, Inc. | Virtual audio processing for loudspeaker or headphone playback |
EP2446435B1 (en) * | 2009-06-24 | 2013-06-05 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Audio signal decoder, method for decoding an audio signal and computer program using cascaded audio object processing stages |
EP2360681A1 (en) * | 2010-01-15 | 2011-08-24 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for extracting a direct/ambience signal from a downmix signal and spatial parametric information |
TWI443646B (zh) * | 2010-02-18 | 2014-07-01 | Dolby Lab Licensing Corp | 音訊解碼器及使用有效降混之解碼方法 |
US8908874B2 (en) * | 2010-09-08 | 2014-12-09 | Dts, Inc. | Spatial audio encoding and reproduction |
EP2477188A1 (en) * | 2011-01-18 | 2012-07-18 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Encoding and decoding of slot positions of events in an audio signal frame |
WO2012125855A1 (en) * | 2011-03-16 | 2012-09-20 | Dts, Inc. | Encoding and reproduction of three dimensional audio soundtracks |
WO2012177067A2 (ko) | 2011-06-21 | 2012-12-27 | 삼성전자 주식회사 | 오디오 신호 처리방법 및 장치와 이를 채용하는 단말기 |
EP2560161A1 (en) * | 2011-08-17 | 2013-02-20 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Optimal mixing matrices and usage of decorrelators in spatial audio processing |
KR20130093798A (ko) * | 2012-01-02 | 2013-08-23 | 한국전자통신연구원 | 다채널 신호 부호화 및 복호화 장치 및 방법 |
WO2013192111A1 (en) * | 2012-06-19 | 2013-12-27 | Dolby Laboratories Licensing Corporation | Rendering and playback of spatial audio using channel-based audio systems |
US9761229B2 (en) * | 2012-07-20 | 2017-09-12 | Qualcomm Incorporated | Systems, methods, apparatus, and computer-readable media for audio object clustering |
US9479886B2 (en) * | 2012-07-20 | 2016-10-25 | Qualcomm Incorporated | Scalable downmix design with feedback for object-based surround codec |
KR101729930B1 (ko) * | 2013-02-14 | 2017-04-25 | 돌비 레버러토리즈 라이쎈싱 코오포레이션 | 업믹스된 오디오 신호들의 채널간 코히어런스를 제어하기 위한 방법 |
US10199044B2 (en) * | 2013-03-20 | 2019-02-05 | Nokia Technologies Oy | Audio signal encoder comprising a multi-channel parameter selector |
EP2866227A1 (en) * | 2013-10-22 | 2015-04-29 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Method for decoding and encoding a downmix matrix, method for presenting audio content, encoder and decoder for a downmix matrix, audio encoder and audio decoder |
-
2013
- 2013-10-22 EP EP20130189770 patent/EP2866227A1/en not_active Withdrawn
-
2014
- 2014-10-13 CA CA2926986A patent/CA2926986C/en active Active
- 2014-10-13 EP EP14783660.5A patent/EP3061087B1/en active Active
- 2014-10-13 AU AU2014339167A patent/AU2014339167B2/en active Active
- 2014-10-13 SG SG11201603089VA patent/SG11201603089VA/en unknown
- 2014-10-13 PT PT147836605T patent/PT3061087T/pt unknown
- 2014-10-13 RU RU2016119546A patent/RU2648588C2/ru active
- 2014-10-13 ES ES14783660.5T patent/ES2655046T3/es active Active
- 2014-10-13 JP JP2016525036A patent/JP6313439B2/ja active Active
- 2014-10-13 MY MYPI2016000689A patent/MY176779A/en unknown
- 2014-10-13 BR BR112016008787-9A patent/BR112016008787B1/pt active IP Right Grant
- 2014-10-13 WO PCT/EP2014/071929 patent/WO2015058991A1/en active Application Filing
- 2014-10-13 KR KR1020167013337A patent/KR101798348B1/ko active IP Right Grant
- 2014-10-13 PL PL14783660T patent/PL3061087T3/pl unknown
- 2014-10-13 CN CN201480057957.8A patent/CN105723453B/zh active Active
- 2014-10-13 MX MX2016004924A patent/MX353997B/es active IP Right Grant
- 2014-10-13 CN CN201910973920.4A patent/CN110675882B/zh active Active
- 2014-10-21 TW TW103136287A patent/TWI571866B/zh active
- 2014-10-22 AR ARP140103967A patent/AR098152A1/es active IP Right Grant
-
2016
- 2016-04-18 US US15/131,263 patent/US9947326B2/en active Active
- 2016-05-16 ZA ZA2016/03298A patent/ZA201603298B/en unknown
-
2018
- 2018-03-05 US US15/911,974 patent/US10468038B2/en active Active
-
2019
- 2019-09-23 US US16/579,293 patent/US11393481B2/en active Active
-
2022
- 2022-06-15 US US17/807,095 patent/US11922957B2/en active Active
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6313439B2 (ja) | ダウンミックス行列を復号及び符号化するための方法、音声コンテンツを呈示するための方法、ダウンミックス行列のためのエンコーダ及びデコーダ、音声エンコーダ及び音声デコーダ | |
US20240029744A1 (en) | Audio encoder, audio decoder, methods and computer program using jointly encoded residual signals | |
EP3025329B1 (en) | Concept for audio encoding and decoding for audio channels and audio objects | |
JP4832507B2 (ja) | コンパクトなコードブックを用いるエントロピー符号化 | |
CN105659319B (zh) | 使用被插值矩阵的多通道音频的渲染 | |
CN107077861B (zh) | 音频编码器和解码器 | |
EP3134897A1 (en) | Matrix decomposition for rendering adaptive audio using high definition audio codecs | |
JP6640849B2 (ja) | マルチチャネル・オーディオ信号のパラメトリック・エンコードおよびデコード | |
WO2016168408A1 (en) | Audio encoding and rendering with discontinuity compensation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170706 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170822 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170921 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180220 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180322 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6313439 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |