JP2021513108A - ハイブリッドエンコーダ/デコーダ空間解析を使用する音響シーンエンコーダ、音響シーンデコーダおよびその方法 - Google Patents
ハイブリッドエンコーダ/デコーダ空間解析を使用する音響シーンエンコーダ、音響シーンデコーダおよびその方法 Download PDFInfo
- Publication number
- JP2021513108A JP2021513108A JP2020541892A JP2020541892A JP2021513108A JP 2021513108 A JP2021513108 A JP 2021513108A JP 2020541892 A JP2020541892 A JP 2020541892A JP 2020541892 A JP2020541892 A JP 2020541892A JP 2021513108 A JP2021513108 A JP 2021513108A
- Authority
- JP
- Japan
- Prior art keywords
- signal
- spatial
- acoustic scene
- subband
- encoder
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 48
- 238000012732 spatial analysis Methods 0.000 title description 10
- 238000004458 analytical method Methods 0.000 claims description 38
- 230000003595 spectral effect Effects 0.000 claims description 36
- 238000012545 processing Methods 0.000 claims description 29
- 238000001228 spectrum Methods 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 11
- 238000009792 diffusion process Methods 0.000 claims description 8
- 238000009877 rendering Methods 0.000 claims description 7
- 239000003638 chemical reducing agent Substances 0.000 claims description 6
- 230000014509 gene expression Effects 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 6
- 230000010076 replication Effects 0.000 claims description 5
- 230000005236 sound signal Effects 0.000 claims description 5
- 238000012423 maintenance Methods 0.000 claims description 4
- 239000002775 capsule Substances 0.000 claims description 2
- 238000010586 diagram Methods 0.000 abstract description 4
- 230000000875 corresponding effect Effects 0.000 description 14
- 230000005540 biological transmission Effects 0.000 description 13
- 230000015572 biosynthetic process Effects 0.000 description 8
- 238000003786 synthesis reaction Methods 0.000 description 8
- 238000004091 panning Methods 0.000 description 7
- 238000013139 quantization Methods 0.000 description 6
- 238000000926 separation method Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 230000002411 adverse Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 238000007405 data analysis Methods 0.000 description 2
- 238000000354 decomposition reaction Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 102000005717 Myeloma Proteins Human genes 0.000 description 1
- 108010045503 Myeloma Proteins Proteins 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000008021 deposition Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/032—Quantisation or dequantisation of spectral components
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/008—Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/18—Vocoders using multiple modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/005—Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/04—Circuits for transducers, loudspeakers or microphones for correcting frequency response
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/12—Circuits for transducers, loudspeakers or microphones for distributing signals to two or more loudspeakers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R5/00—Stereophonic arrangements
- H04R5/04—Circuit arrangements, e.g. for selective connection of amplifier inputs/outputs to loudspeakers, for loudspeaker detection, or for adaptation of settings to personal preferences or hearing impairments
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/307—Frequency adjustment, e.g. tone control
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/11—Application of ambisonics in stereophonic audio systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Otolaryngology (AREA)
- Stereophonic System (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
【選択図】 図1a
Description
本発明の実施形態は、デコーダ側で推定された空間パラメータを有するように選択された信号の部分に対して、信号全体に対してエンコーダ側で推定および符号化されたパラメータを使用するシステムよりも、より良い時間−周波数分解能を提供する。
本発明の実施形態は、エンコーダでのパラメータの解析、符号化およびデコーダへのパラメータの伝送により再構成された信号部分に対して、空間パラメータが復号低次元音響信号を使用してデコーダで推定されるシステムよりも、より良い空間パラメータ値を提供する。
本発明の実施形態は、信号全体のコード化パラメータを使用するシステムまたは信号全体のデコーダ側推定パラメータを使用するシステムのいずれよりも、時間−周波数分解能、伝送速度、およびパラメータ精度の間のより柔軟なトレードオフを可能にする。
本発明の実施形態は、主にパラメトリック符号化ツールを使用して符号化された信号部分に対して、エンコーダ側の推定と信号部分の一部またはすべての空間パラメータの符号化を選択すること、およびそれらの部分に対して一部またはすべての空間パラメータを符号化することにより、より良好なパラメータ精度を提供し、主として符号化される信号部分に対して、波形維持符号化ツールを使用し、それらの信号部分に対する空間パラメータの推定をデコーダ側に委ねることで、より良好な時間−周波数分解能を提供する。
Claims (38)
- 少なくとも2成分の信号を含む音響シーン(110)を符号化する音響シーンエンコーダであり、
前記少なくとも2成分の信号をコア符号化して、前記少なくとも2成分の信号の第1部分に対して第1の復号化表現(310)を生成し、前記少なくとも2成分の信号の第2の部分に対して第2の復号化表現(320)を生成するコアエンコーダと、
前記音響シーン(110)を解析して、前記第2部分に対する1以上の空間パラメータ(330)または1以上の空間パラメータセットを生成する空間解析器(200)と、
前記第1復号化表現(310)、前記第2復号化表現(320)、および前記第2部分に対する前記1以上の空間パラメータ(330)または前記1以上の空間パラメータセット、を含む第2の符号化音響シーン信号(340)を形成する出力インタフェース(300)と、
を備える音響シーンエンコーダ。 - 前記コアエンコーダは、前記少なくとも2成分の信号から後続時間フレームを形成する構成であり、
前記少なくとも2成分の信号の第1の時間フレームが前記少なくとも2成分の信号の前記第1部分であり、前記少なくとも2成分の信号の第2の時間フレームが前記第2部分である、または、
前記少なくとも2成分の信号の時間フレームの第1の周波数サブバンドが前記少なくとも2成分の信号の前記第1部分であり、前記少なくとも2成分の信号の時間フレームの第2の周波数サブバンドが前記少なくとも2成分の信号の前記第2部分である、
請求項1に記載の音響シーンエンコーダ。 - 前記音響シーン(110)は、第1の成分信号として全方向性オーディオ信号を含み、第2の成分信号として少なくとも1つの指向性オーディオ信号とを含む、または、
前記音響シーン(110)は、第1の成分信号として第1の位置に配置された全方向性マイクロフォンによって捕捉された信号を含み、第2の成分信号として第1の位置とは異なる第2の位置に位置する全方向性マイクロフォンによって捕捉された少なくとも1つの信号を含む、または、
前記音響シーン(110)は、第1の成分信号として第1の方向に向けられた指向性マイクロフォンによって捕捉された少なくとも1つの信号を含み、第2の成分信号として前記第1の方向と異なる第2の方向に向けられた指向性マイクロフォンによって捕捉された少なくとも1つの信号を含む
請求項1または2に記載の音響シーンエンコーダ。 - 前記音響シーン(110)は、Aフォーマットの成分信号、B形フォーマットの成分信号、1次アンビソニックスの成分信号、高次アンビソニックスの成分信号、または少なくとも2つのマイクロホンカプセルを有するマイクロホンアレイにより捕えられた、または以前に記録または合成された音響シーンから計算された成分信号を含む、
請求項1から3のいずれか1項に記載の音響シーンエンコーダ。 - 前記出力インタフェース(300)は、前記第2部分に対して前記空間解析器(200)により生成された前記1以上の空間パラメータ(330)と同じパラメータ種からの空間パラメータを、前記符号化音響シーン信号(340)に含まないように構成され、前記第2部分のみが前記パラメータ種を有し、前記パラメータ種の任意のパラメータが、前記符号化音響シーン信号(340)内の前記第1部分に含まれないように構成された
請求項1からの4いずれか1項に記載の音響シーンエンコーダ。 - 前記コアエンコーダ(160)は、前記第2部分に対してパラメトリックまたは大部分パラメトリックな符号化動作(160b)を実行し、前記第1部分に対して波形維持または主に波形を維持する符号化動作(160a)を実行するように構成され、または、
前記第2部分の開始帯域は帯域拡張開始帯域よりも低く、前記コアエンコーダ(100)によるコアノイズ充填動作は、固定交差帯域を持たず、周波数が増加するにつれてコアスペクトルのより多くの部分に対して徐々に使用される
請求項1から5のいずれか1項に記載の音響シーンエンコーダ。 - 前記コアエンコーダ(160)は、前記少なくとも2つの成分信号の前記第2部分に対応する時間フレームの第2の周波数サブバンドに対して、パラメトリックまたは大部分パラメトリックな処理(160b)を実行するように構成され、前記パラメトリック処理または大パラメトリックな処理(160b)は、前記第2の周波数サブバンドに対して振幅関連パラメータを計算し、前記第2の周波数サブバンド内の個々のスペクトル線ではなく前記振幅関連パラメータを量子化およびエントロピー符号化し、
前記コアエンコーダ(160)は、前記少なくとも2つの成分信号の前記第1部分に対応する時間フレームの第1のサブバンドにおける個々のスペクトル線を量子化およびエントロピー符号化(160a)するように構成され、または
前記コアエンコーダ(160)は、前記少なくとも2つの成分信号の前記第2の部分に対応する時間フレームの高周波サブバンドに対して前記パラメトリック処理または大部分パラメトリックな処理(160b)を実行するように構成され、前記パラメトリック処理または大部分パラメトリックな処理は、前記高周波数サブバンドの振幅関連パラメータを計算し、前記高周波数サブバンドにおける時間領域信号の代わりに前記振幅関連パラメータを量子化およびエントロピー符号化することを含み、前記コアエンコーダ(160)は、LPC符号化、LPC/TCX符号化、またはEVS符号化またはAMR広帯域符号化またはAMR広帯域プラス符号化のような時間領域符号化動作によって、前記少なくとも2つの成分信号の前記第1部分に対応する時間フレームの低周波数サブバンドにおける時間領域音響信号を量子化およびエントロピー符号化するように構成された、
請求項1から6のいずれか1項に記載の音響シーンエンコーダ。 - 前記パラメトリック処理(160b)は、スペクトル帯域複製(SBR)処理と、インテリジェントギャップ充填(IGF)処理またはノイズ充填処理と、を含む請求項7に記載の音響シーンエンコーダ。
- 前記第1部分は時間フレームの第1のサブバンドであり、前記第2部分は時間フレームの第2のサブバンドであり、前記コアエンコーダ(160)は、前記第1のサブバンドと前記第2のサブバンドとの間に所定の境界周波数を使用するように構成され、または、
前記コアエンコーダ(160)は、前記オーディオシーン(110)の次元を縮小して低次元音響シーンを得るための次元削減器(150a)を含み、前記コアエンコーダ(160)は、前記低次元音響シーンから前記少なくとも2つの成分信号の前記第1部分について、前記第1の符号化表現(310)を計算するように構成され、前記空間解析器(200)は、前記低次元音響シーンの次元より高い次元を有する前記音響シーン(110)から空間パラメータ(330)を導出するように構成され、または、
前記コアエンコーダ(160)は、M個の成分信号を含む前記第1部分に対して前記第1の符号化表現(310)を生成し、N個の成分信号を含む前記第2部分に対して前記第2の符号化表現(320)を生成するように構成され、ここでMはNより大きく、Nは1以上である
請求項1から8のいずれか1項に記載の音響シーンエンコーダ。 - 異なるビットレートで動作するように構成され、前記第1部分と前記第2部分との間の所定の境界周波数が選択されたビットレートに依存し、前記所定の境界周波数が、より低いビットレートに対して低く、または所定の境界がより高いビットレートに対して高い、請求項1から9のいずれか1項に記載の音響シーンエンコーダ。
- 前記第1部分は前記少なくとも2つの成分信号の第1のサブバンドであり、前記第2部分は前記少なくとも2つの成分信号の第2のサブバンドであり、
空間アナライザ(200)は、前記第2のサブバンドに対して、1以上の空間パラメータ(330)として、方向性パラメータと拡散度パラメータのような非方向性パラメータとの少なくとも1つを計算するように構成された
請求項1から10のいずれか1項に記載の音響シーンエンコーダ。 - 前記コアエンコーダ(160)は、
少なくとも2つの成分信号の時間フレームのシーケンスを、スペクトルフレームの第1のサブバンド内の前記少なくとも2つのコンポーネント信号のための空間フレームのシーケンスに変換する時間−周波数変換器(164)と、
スペクトルフレームの第1のサブバンド内の前記スペクトルフームのシーケンスのフレームのスペクトル値を量子化およびエントロピー符号化するスペクトルエンコーダ(160a)と、
前記スペクトルフレームの第2のフレーム内の前記スペクトルフレームのスペクトル値をパラメトリックに符号化するパラメトリックエンコーダ(160b)と
を含み、
または
前記コアエンコーダ(160)は、時間フレームの低帯域部分の域部の時間領域または混合された時間領域と周波数領域の符号化動作を実行する時間領域または混合時間領域周波数領域コアエンコーダ(160)を含み、または、
前記空間解析器(200)は、前記第2部分を分析帯域に細分するように構成され、ひとつの分析帯域の帯域幅は、前記第1部分内でスペクトルエンコーダによって処理される2つの隣接するスペクトル値に関連する帯域幅以上であるか、または前記第1部分を表す低域部分の帯域幅よりも低く、前記空間解析器(200)は、前記第2部分の各解析帯域について方向パラメータおよび拡散パラメータのうちの少なくとも1つを計算するように構成され、または、
前記コアエンコーダ(160)および前記空間アナライザ(200)は、共通のフィルタバンク(164)または異なる特性を有する異なるフィルタバンク(164、1000)を使用するように構成された
請求項1から11のいずれか1項に記載の音響シーンエンコーダ。 - 前記空間アナライザ(200)は、前記方向パラメータを計算するため、前記拡散パラメータを計算するために使用される解析帯域よりも小さい解析帯域を使用するように構成された、請求項12に記載の音響シーンエンコーダ。
- 前記コアエンコーダ(160)は、前記少なくとも2つの成分信号に対して符号化マルチチャネル信号を生成するマルチチャネルエンコーダを備え、または、
前記コアエンコーダ(160)は、前記少なくとも2つの成分信号の成分信号の数が3以上である場合に、2以上の符号化マルチチャネル信号を生成するマルチチャネルエンコーダを備え、または、
前記コアエンコーダ(160)は、前記第1の符号化表現(310)を第1の解像度で生成し、前記第2の符号化表現(320)を第2の解像度で生成するように構成され、前記第2の解像度は前記第1の解像度より低い、または、
前記コアエンコーダ(160)は、前記第1の符号化表現(310)を第1の時間分解能または第1の周波数分解能で生成し、第2の符号化表現(320)を第2の時間分解能または第2の周波数分解能で生成するように構成され、前記第2の時間分解能または周波数分解能は、前記第1の時間分解能または周波数分解能より低い、または、
前記出力インタフェース(300)は、前記第1部分に対するいずれの空間パラメータ(330)も前記符号化音声シーン信号(340)に含まないように構成され、または、前記第2部分に対する空間パラメータ(330)の数に比較して少ない数の前記第1の部分に対する空間パラメータを、前記符号化音声シーン信号(340)に含めるように構成された、
請求項1から13のいずれか1項に記載の音声シーンエンコーダ。 - 少なくとも2つ)成分信号の第1部分の第1の符号化表現(410)と、少なくとも2つの成分信号の第2の部分の第2の符号化表現(420)と、前記少なくとも2つの成分信号の第2部分の1以上の空間パラメータ(430)とを含む符号化音響シーン信号(340)を受信する入力インタフェース(400)と、
前記第1の符号化表現(410)および前記第2の符号化表現(420)を復号して、音響シーンを表す前記少なくとも2つの成分信号の復号化表現(810、820)を得るコアデコーダ(500)と、
前記少なくとも2つの成分信号の前記第1の部分に対応する前記復号表現の一部分(810)を解析して、前記少なくとも2つの成分信号の前記第1部分に対する1以上の空間パラメータ(840)を導出する空間解析器(600)と、
前記第1部分に対する前記1以上の空間パラメータ(840)と前記第1部分に対する前記1以上の空間パラメータ(830)を使用して、前記復号表現(810)、(820)を前記符号化音響シーン信号(340)に含まれるように空間的にレンダリングする空間レンダラ(800)と
を備える音声シーンデコーダ。 - 前記符号化音声シーン信号(340)に含まれる前記第2部分に対する前記1以上の空間パラメータ(430)を復号する空間パラメータ復号器(700)をさらに備え、
前記空間レンダラ(800)は、前記少なくとも2つの成分信号の復号表現の前記第2部分をレンダリングするために、前記1以上の空間パラメータ(830)の復号表現を使用するように構成された
請求項15に記載の音響シーンデコーダ。 - 前記コア復号器(500)は、復号フレームのシーケンスを提供するように構成され、前記第1部分は、復号フレームのシーケンスの第1のフレームであり、前記第2部分は、復号フレームのシーケンスの第2のフレームであり、前記コア復号器(500)はさらに、後続の復号時間フレームを重ね合わせ加算して前記復号表現を得るオーバーラップ加算器をさらに備え、または、
前記コーデコーダ(500)は、重ね合わせ加算動作なしにACELPベースシステム動作を行う構成である
請求項15または16に記載の音響シーンデコーダ。 - 前記コア復号器(500)は、復号時間フレームのシーケンスを提供するように構成され、
前記第1部分は、前記復号時間フレームのシーケンスのひとつの時間フレームの第1のサブバンドであり、前記第2部分は、前記復号時間フレームのシーケンスの前記時間フレームの第2のサブバンドであり、
前記空間解析器(600)は、前記第1のサブバンドに対して1以上の空間パラメータ(840)を提供するように構成され、
前記空間レンダラ(800)は、
前記第1のサブバンドを、前記時間フレームの前記第1のサブバンドと前記第1のサブバンドに対する前記1以上の空間パラメータ(840)とを用いてレンダリングし、
前記第2のサブバンドを、前記時間フレームの前記第2のサブバンドと前記第2のサブバンドに対する前記1以上の空間パラメータ(830)とを用いてレンダリングする
請求項15から17のいずれか1項に記載の音響シーンデコーダ。 - 前記空間レンダラ(800)は、第1のレンダリングされたサブバンドと第2のレンダリングされたサブバンドとを結合して、レンダリングされた信号の時間フレームを得る結合器を有する請求項18に記載の音響シーンデコーダ。
- 前記空間レンダラ(800)は、ラウドスピーカ配置の各ラウドスピーカに対して、または1次または高次のアンビソニックスフォーマットの各成分に対して、または両耳フォーマットの各成分に対して、レンダリングされた信号を提供するように構成された、請求項15から19のいずれか1項に記載の音響シーンデコーダ。
- 前記空間レンダラ(800)は、
各出力成分に対して、前記復号表現から出力成分信号を生成するプロセッサ(870b)と、
前記1以上の空間パラメータ(830、840)を使用して前記出力成分信号を修正する利得プロセッサ(872)と、
前記1以上の空間パラメータ(830、840)を使用して非相関化出力成分信号を生成する重み付け/非相関化プロセッサ(874)と、
前記非相関化出力成分信号と前記出力成分信号とを結合して、レンダリングされたラウドスピーカ信号を得る合成器(876)と
を有する、または、
前記空間レンダラ(800)は、
ラウトスピーカ配置の各ラウトスピーカに対して、ラウドスピーカ成分信号を計算する仮想マイクロホンプロセッサ(870a)と、
前記1以上の空間パラメータ(830、840)を使用して前記ラウドスピーカ成分信号を修正する利得プロセッサ(872)と、
前記1以上の空間パラメータ(830、840)を使用して非相関化ラウドスピーカ成分信号を生成する重み付け/非相関化プロセッサ(874)と、
前記非相関化ラウドスピーカ成分信号と前記ラウドスピーカ成分信号とを結合して、レンダリングされたラウドスピーカ信号を得る合成器(876)と
を有する
請求項15から20のいずれか1項に記載の音響シーンデコーダ。 - 前記空間レンダラ(800)は、帯域順に動作するように構成され、前記第1部分は第1のサブバンドであり、この第1のサブバンドは複数の第1の帯域に分割され、前記第2部分は第2のサブバンドであり、この第2のサブバンドは複数の第2の帯域に分割され、
前記空間レンダラ(800)は、前記解析器によって導出された対応する空間パラメータを使用して、各第1の帯域に対して出力成分信号をレンダリングするように構成され、
前記空間レンダラ(800)は、前記符号化音声シーン信号(340)に含まれる対応する空間パラメータを使用して、各第2の帯域に対する出力成分信号をレンダリングするように構成され、前記複数の第2の帯域のひとつの第2の帯域は、前記複数の第1の帯域のひとつの第1の帯域よりも大きく、
前記空間レンダラ(800)は、前記第1の帯域および前記第2の帯域に対する出力成分信号を結合(878)してレンダリングされた出力信号を得るように構成され、このレンダリングされた出力信号は、ラウドスピーカ信号、Aフォーマット信号、Bフォーマット信号、1次アンビソニックス信号、高次アンビソニックス信号または両耳信号である
請求項15から21のいずれか1項に記載の音響シーンデコーダ。 - 前記コア復号器(500)は、前記音響シーンを表現する前記復号表現として、前記第1の成分信号として無指向性音響信号を、前記第2の成分信号として少なくとも1つの指向性音響信号を生成するように構成され、または、音響シーンを表す復号化表現は、Bフォーマット成分信号または1次のアンビソニックス成分信号、高次アンビソニックス成分信号を含む、請求項15から22のいずれか1項に記載の音響シーンデコーダ。
- 前記復号音響シーン信号(340)は、前記復号音響シーン信号(340)に含まれる前記第2の部分に対する前記空間パラメータ(430)と同じ種類の前記少なくとも2つの成分信号の前記第1の部分対するどのような空間パラメータも含まない、請求項15から23のいずれか1項に記載の音響シーンデコーダ。
- 前記コアデコーダ(500)は、前記第2の部分に対するパラメトリック復号動作(510b)を実行し、前記第1の部分に対する波形維持復号動作(510a)を実行するように構成された、請求項15から24のいずれか1項に記載の音響シーンデコーダ。
- 前記コアデコーダ(500)は、振幅関連パラメータをエントロピー復号の後に、前記第2サブバンドをエンベロープ調整するため、振幅関連パラメータを用いてパラメトリック処理(510b)を実行するように構成され、
前記コア復号器(500)は、第1のサブバンド内の個々のスペクトル線をエントロピー復号(510a)するように構成された、
請求項15から25のいずれか1項に記載の音響シーンデコーダ。 - 前記コア復号器(500)は、前記第2の符号化表現(420)の復号(510b)のため、スペクトル帯域複製(SBR)処理、インテリジェントギャップ充填(IGF)処理またはノイズ充填処理を行う構成である、請求項15から26のいずれか1項に記載の音響シーンデコーダ。
- 前記第1の部分は時間フレームの第1のサブバンドであり、前記第2の部分は時間フレームの第2のサブバンドであり、コア復号器(500)は、前記第1のサブバンドと前記第2のサブバンドとの間の所定の境界周波数を使用するように構成された、請求項15から27のいずれか1項に記載の音響シーンデコーダ。
- 前記音響シーンデコーダは、異なるビットレートで動作するように構成され、前記第1の部分と前記第2の部分との間の所定の境界周波数は、選択されたビットレートに依存し、前記所定の境界周波数は、より低いビットレートに対しては低く、あるいは、前記所定の境界周波数がより大きいビットレートに対して大きい、請求項15から28のいずれか1項に記載の音響シーンデコーダ。
- 前記第1の部分は時間部分の第1のサブバンドであり、前記第2の部分は時間部分の第2のサブバンドであり、
前記空間解析器(600)は、前記第1のサブバンドに対して、前記1以上の空間パラメータ(840)として、方向パラメータおよび拡散パラメータの少なくとも1つを計算するように構成された、
請求項15から29のいずれか1項に記載の音響シーンデコーダ。 - 前記第1の部分は時間フレームの第1のサブバンドであり、前記第2の部分は時間フレームの第2のサブバンドであり、
空間解析器(600)は、前記第1のサブバンドを解析帯域に細分するように構成され、ひとつの解析帯域の帯域幅は、前記第1のサブバンドに対して前記コアデコーダ(500)により生成された2つの隣接するスペクトル値に関連する帯域幅以上であり、
前記空間解析器(600)は、各解析帯域に対して前記方向パラメータおよび前記拡散パラメータの少なくとも1つを計算するように構成された、
請求項15から30のいずれか1項に記載の音響シーンデコーダ。 - 前記空間解析器(600)は、前記方向パラメータを計算するために前記拡散パラメータを計算するために用いられる解析帯域よりも小さい解析帯域を使用するように構成された請求項15から31のいずれか1項に記載の音響シーンデコーダ。
- 前記空間解析器(600)は、前記方向パラメータを計算するために、第1の帯域幅を有する解析帯域を使用するように構成され、
前記空間レンダラ(800)は、前記復号表現のレンダリング帯域ンドをレンダリングするために、前記符号化音響シーン信号(340)に含まれる前記少なくとも2つの成分信号の前記第2の部分に対して、前記1以上の空間パラメータ(840)のひとつの空間パラメータを使用するように構成され、前記レンダリング帯域は第2の帯域幅を有し、
前記第2の帯域幅は、前記第1の帯域幅よりも大きい、
請求項15から32のいずれか1項に記載の音響シーンデコーダ。 - 前記符号化音響シーン信号(340)は、前記少なくとも2つの成分信号に対する符号化マルチチャンネル信号を含み、あるいは、前記符号化音響シーン信号(340)は、2より大きい数の成分信号に対する少なくとも2つの符号化マルチチャンネル信号を含み、
前記コアデコーダ(500)は、前記符号化マルチチャンネル信号または前記少なくとも2つの符号化マルチチャンネル信号をコア復号するマルチチャネルデコーダを有する、
請求項15から33のいずれか1項に記載の音響シーンデコーダ。 - 音響シーン(110)を符号化する方法であって、
前記オーディオシーン(110)は、少なくとも2つの成分信号を含み、
前記少なくとも2つの成分信号の第1部分に対して第1の符号化表現(310)を生成し、前記少なくとも2つの成分信号の第2部分に対して第2の符号化表現(320)を生成して、前記少なくとも2つの成分信号をコア符号化し、
前記音響シーン(110)を解析して、前記第2の部分に対して、1以上の空間パラメータ(330)または1以上の空間パラメータセットを導出し、
前記第1の符号化表現(310)、前記第2の符号化表現(320)、および前記第2部分に対する前記1以上の空間パラメータ(330)または前記1以上の空間パラメータセットを含む符号化音響シーン信号(340)を形成する
音響シーンの符号化方法。 - 少なくとも2つの成分信号の第1部分の第1の符号化表現(410)と、前記少なくとも2つの成分信号の第2部分の第2の符号化表現(420)と、前記少なくとも2つの成分信号の第2部分の1以上の空間パラメータ(430)とを含む符号化音響シーン信号(340)を受信し、
前記第1の符号化表現(410)および前記第2の符号化表現(420)を復号して、音響シーンを表す前記少なくとも2つの成分信号の復号表現を取得し、
前記少なくとも2つの成分信号の第1部分に対応する前記復号表現の一部を解析して、前記少なくとも2つの成分信号の前記第1部分に対する1以上の空間パラメータ(840)を導出し、
前記第1部分に対する前記1以上の空間パラメータ(840)と、前記第2部分に対する前記1以上の空間パラメータ(430)と、を使用して、前記復号表現を、前記符号化音声シーン信号(340)に含まれるように空間的にレンダリングする
音響シーンの符号化方法。 - コンピュータまたはプロセッサ上で動作する際に、請求項35に記載の方法または請求項36に記載の方法を実行するためのコンピュータプログラム。
- 音響シーン(110)の少なくとも2つの成分信号の第1部分に対する第1の符号化表現と、
前記少なくとも2つの成分信号の第2部分に対する第2の符号化表現と、
前記第2部分に対する1以上の空間パラメータ(330)または第2の部分の1つ以上の空間パラメータセットまたは1以上の空間パラメータセットと
を含む符号化音響シーン信号(340)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023063771A JP2023085524A (ja) | 2018-02-01 | 2023-04-10 | ハイブリッドエンコーダ/デコーダ空間解析を使用する音響シーンエンコーダ、音響シーンデコーダおよびその方法 |
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP18154749 | 2018-02-01 | ||
EP18154749.8 | 2018-02-01 | ||
EP18185852.3 | 2018-07-26 | ||
EP18185852 | 2018-07-26 | ||
PCT/EP2019/052428 WO2019149845A1 (en) | 2018-02-01 | 2019-01-31 | Audio scene encoder, audio scene decoder and related methods using hybrid encoder/decoder spatial analysis |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023063771A Division JP2023085524A (ja) | 2018-02-01 | 2023-04-10 | ハイブリッドエンコーダ/デコーダ空間解析を使用する音響シーンエンコーダ、音響シーンデコーダおよびその方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021513108A true JP2021513108A (ja) | 2021-05-20 |
JP7261807B2 JP7261807B2 (ja) | 2023-04-20 |
Family
ID=65276183
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020541892A Active JP7261807B2 (ja) | 2018-02-01 | 2019-01-31 | ハイブリッドエンコーダ/デコーダ空間解析を使用する音響シーンエンコーダ、音響シーンデコーダおよびその方法 |
JP2023063771A Pending JP2023085524A (ja) | 2018-02-01 | 2023-04-10 | ハイブリッドエンコーダ/デコーダ空間解析を使用する音響シーンエンコーダ、音響シーンデコーダおよびその方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023063771A Pending JP2023085524A (ja) | 2018-02-01 | 2023-04-10 | ハイブリッドエンコーダ/デコーダ空間解析を使用する音響シーンエンコーダ、音響シーンデコーダおよびその方法 |
Country Status (16)
Country | Link |
---|---|
US (3) | US11361778B2 (ja) |
EP (2) | EP3724876B1 (ja) |
JP (2) | JP7261807B2 (ja) |
KR (2) | KR20240101713A (ja) |
CN (2) | CN118197326A (ja) |
AU (1) | AU2019216363B2 (ja) |
BR (1) | BR112020015570A2 (ja) |
CA (1) | CA3089550C (ja) |
ES (1) | ES2922532T3 (ja) |
MX (1) | MX2020007820A (ja) |
PL (1) | PL3724876T3 (ja) |
RU (1) | RU2749349C1 (ja) |
SG (1) | SG11202007182UA (ja) |
TW (1) | TWI760593B (ja) |
WO (1) | WO2019149845A1 (ja) |
ZA (1) | ZA202004471B (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109547711A (zh) * | 2018-11-08 | 2019-03-29 | 北京微播视界科技有限公司 | 视频合成方法、装置、计算机设备及可读存储介质 |
GB201914665D0 (en) * | 2019-10-10 | 2019-11-27 | Nokia Technologies Oy | Enhanced orientation signalling for immersive communications |
GB2595871A (en) * | 2020-06-09 | 2021-12-15 | Nokia Technologies Oy | The reduction of spatial audio parameters |
CN114067810A (zh) * | 2020-07-31 | 2022-02-18 | 华为技术有限公司 | 音频信号渲染方法和装置 |
CN115881140A (zh) * | 2021-09-29 | 2023-03-31 | 华为技术有限公司 | 编解码方法、装置、设备、存储介质及计算机程序产品 |
KR20240116488A (ko) * | 2021-11-30 | 2024-07-29 | 돌비 인터네셔널 에이비 | 장면-기반 몰입형 오디오 콘텐츠의 코딩 또는 디코딩을 위한 방법 및 디바이스 |
WO2023234429A1 (ko) * | 2022-05-30 | 2023-12-07 | 엘지전자 주식회사 | 인공 지능 기기 |
WO2024208420A1 (en) | 2023-04-05 | 2024-10-10 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Audio processor, audio processing system, audio decoder, method for providing a processed audio signal representation and computer program using a time scale modification |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009501948A (ja) * | 2005-07-19 | 2009-01-22 | フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ | パラメトリックマルチチャネルオーディオ符号化とマトリックスサラウンドマルチチャネル符号化との間のギャップを埋めるための概念 |
JP2016510569A (ja) * | 2013-02-14 | 2016-04-07 | ドルビー ラボラトリーズ ライセンシング コーポレイション | 推定された空間的パラメータを使ったオーディオ信号の向上 |
US20170365264A1 (en) * | 2015-03-09 | 2017-12-21 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Audio encoder for encoding a multichannel signal and audio decoder for decoding an encoded audio signal |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4363122A (en) * | 1980-09-16 | 1982-12-07 | Northern Telecom Limited | Mitigation of noise signal contrast in a digital speech interpolation transmission system |
EP3712888B1 (en) * | 2007-03-30 | 2024-05-08 | Electronics and Telecommunications Research Institute | Apparatus and method for coding and decoding multi object audio signal with multi channel |
KR101452722B1 (ko) * | 2008-02-19 | 2014-10-23 | 삼성전자주식회사 | 신호 부호화 및 복호화 방법 및 장치 |
JP5243527B2 (ja) * | 2008-07-29 | 2013-07-24 | パナソニック株式会社 | 音響符号化装置、音響復号化装置、音響符号化復号化装置および会議システム |
EP2224433B1 (en) * | 2008-09-25 | 2020-05-27 | Lg Electronics Inc. | An apparatus for processing an audio signal and method thereof |
CN105225667B (zh) | 2009-03-17 | 2019-04-05 | 杜比国际公司 | 编码器系统、解码器系统、编码方法和解码方法 |
ES2871224T3 (es) * | 2011-07-01 | 2021-10-28 | Dolby Laboratories Licensing Corp | Sistema y método para la generación, codificación e interpretación informática (o renderización) de señales de audio adaptativo |
CN103165136A (zh) * | 2011-12-15 | 2013-06-19 | 杜比实验室特许公司 | 音频处理方法及音频处理设备 |
CN104054126B (zh) * | 2012-01-19 | 2017-03-29 | 皇家飞利浦有限公司 | 空间音频渲染和编码 |
WO2014046916A1 (en) * | 2012-09-21 | 2014-03-27 | Dolby Laboratories Licensing Corporation | Layered approach to spatial audio coding |
EP2830045A1 (en) * | 2013-07-22 | 2015-01-28 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Concept for audio encoding and decoding for audio channels and audio objects |
EP2963949A1 (en) * | 2014-07-02 | 2016-01-06 | Thomson Licensing | Method and apparatus for decoding a compressed HOA representation, and method and apparatus for encoding a compressed HOA representation |
KR102219752B1 (ko) * | 2016-01-22 | 2021-02-24 | 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. | 채널 간 시간 차를 추정하기 위한 장치 및 방법 |
US10454499B2 (en) * | 2016-05-12 | 2019-10-22 | Qualcomm Incorporated | Enhanced puncturing and low-density parity-check (LDPC) code structure |
WO2018064296A1 (en) * | 2016-09-29 | 2018-04-05 | Dolby Laboratories Licensing Corporation | Method, systems and apparatus for determining audio representation(s) of one or more audio sources |
-
2019
- 2019-01-31 CN CN202410317506.9A patent/CN118197326A/zh active Pending
- 2019-01-31 CN CN201980024782.3A patent/CN112074902B/zh active Active
- 2019-01-31 SG SG11202007182UA patent/SG11202007182UA/en unknown
- 2019-01-31 EP EP19702889.7A patent/EP3724876B1/en active Active
- 2019-01-31 CA CA3089550A patent/CA3089550C/en active Active
- 2019-01-31 WO PCT/EP2019/052428 patent/WO2019149845A1/en active Search and Examination
- 2019-01-31 AU AU2019216363A patent/AU2019216363B2/en active Active
- 2019-01-31 MX MX2020007820A patent/MX2020007820A/es unknown
- 2019-01-31 EP EP22171223.5A patent/EP4057281A1/en active Pending
- 2019-01-31 KR KR1020247020547A patent/KR20240101713A/ko unknown
- 2019-01-31 KR KR1020207025235A patent/KR20200116968A/ko not_active Application Discontinuation
- 2019-01-31 ES ES19702889T patent/ES2922532T3/es active Active
- 2019-01-31 RU RU2020128592A patent/RU2749349C1/ru active
- 2019-01-31 BR BR112020015570-5A patent/BR112020015570A2/pt active Search and Examination
- 2019-01-31 TW TW108103887A patent/TWI760593B/zh active
- 2019-01-31 JP JP2020541892A patent/JP7261807B2/ja active Active
- 2019-01-31 PL PL19702889.7T patent/PL3724876T3/pl unknown
-
2020
- 2020-07-20 ZA ZA2020/04471A patent/ZA202004471B/en unknown
- 2020-07-30 US US16/943,065 patent/US11361778B2/en active Active
-
2021
- 2021-12-20 US US17/645,110 patent/US11854560B2/en active Active
-
2023
- 2023-04-10 JP JP2023063771A patent/JP2023085524A/ja active Pending
- 2023-06-07 US US18/330,953 patent/US20230317088A1/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009501948A (ja) * | 2005-07-19 | 2009-01-22 | フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ | パラメトリックマルチチャネルオーディオ符号化とマトリックスサラウンドマルチチャネル符号化との間のギャップを埋めるための概念 |
JP2016510569A (ja) * | 2013-02-14 | 2016-04-07 | ドルビー ラボラトリーズ ライセンシング コーポレイション | 推定された空間的パラメータを使ったオーディオ信号の向上 |
US20170365264A1 (en) * | 2015-03-09 | 2017-12-21 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Audio encoder for encoding a multichannel signal and audio decoder for decoding an encoded audio signal |
US20170365263A1 (en) * | 2015-03-09 | 2017-12-21 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Audio encoder for encoding a multichannel signal and audio decoder for decoding an encoded audio signal |
JP2018511827A (ja) * | 2015-03-09 | 2018-04-26 | フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ | マルチチャンネル信号を符号化するためのオーディオエンコーダおよび符号化されたオーディオ信号を復号化するためのオーディオデコーダ |
JP2018511825A (ja) * | 2015-03-09 | 2018-04-26 | フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ | マルチチャンネル信号を符号化するためのオーディオエンコーダおよび符号化されたオーディオ信号を復号化するためのオーディオデコーダ |
Also Published As
Publication number | Publication date |
---|---|
RU2749349C1 (ru) | 2021-06-09 |
KR20200116968A (ko) | 2020-10-13 |
CN118197326A (zh) | 2024-06-14 |
EP4057281A1 (en) | 2022-09-14 |
PL3724876T3 (pl) | 2022-11-07 |
TWI760593B (zh) | 2022-04-11 |
WO2019149845A1 (en) | 2019-08-08 |
ES2922532T3 (es) | 2022-09-16 |
EP3724876B1 (en) | 2022-05-04 |
CA3089550A1 (en) | 2019-08-08 |
US11361778B2 (en) | 2022-06-14 |
CA3089550C (en) | 2023-03-21 |
EP3724876A1 (en) | 2020-10-21 |
US20220139409A1 (en) | 2022-05-05 |
AU2019216363B2 (en) | 2021-02-18 |
BR112020015570A2 (pt) | 2021-02-02 |
SG11202007182UA (en) | 2020-08-28 |
ZA202004471B (en) | 2021-10-27 |
JP7261807B2 (ja) | 2023-04-20 |
TW201937482A (zh) | 2019-09-16 |
MX2020007820A (es) | 2020-09-25 |
AU2019216363A1 (en) | 2020-08-06 |
JP2023085524A (ja) | 2023-06-20 |
US20200357421A1 (en) | 2020-11-12 |
CN112074902B (zh) | 2024-04-12 |
KR20240101713A (ko) | 2024-07-02 |
US20230317088A1 (en) | 2023-10-05 |
CN112074902A (zh) | 2020-12-11 |
US11854560B2 (en) | 2023-12-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11488610B2 (en) | Audio decoder, audio encoder, method for providing at least four audio channel signals on the basis of an encoded representation, method for providing an encoded representation on the basis of at least four audio channel signals and computer program using a bandwidth extension | |
AU2019216363B2 (en) | Audio scene encoder, audio scene decoder and related methods using hybrid encoder/decoder spatial analysis | |
CN103474077B (zh) | 音频信号译码器、提供上混信号表示型态的方法 | |
JP2023126225A (ja) | DirACベース空間オーディオコーディングに関する符号化、復号、シーン処理、および他の手順のための装置、方法、およびコンピュータプログラム | |
TWI794911B (zh) | 用以編碼音訊信號或用以解碼經編碼音訊場景之設備、方法及電腦程式 | |
JP2023546851A (ja) | 複数の音声オブジェクトをエンコードする装置および方法、または2つ以上の関連する音声オブジェクトを使用してデコードする装置および方法 | |
JP2023546850A (ja) | ダウンミックス中に方向情報を使用して複数の音声オブジェクトをエンコードするための装置および方法、または最適化された共分散合成を使用してデコードするための装置および方法 | |
JP2023549038A (ja) | パラメータ変換を用いて符号化されたオーディオシーンを処理するための装置、方法、またはコンピュータプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200930 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210924 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211102 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220126 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220502 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220920 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221220 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230207 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230308 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230410 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7261807 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |