JP7261807B2 - ハイブリッドエンコーダ/デコーダ空間解析を使用する音響シーンエンコーダ、音響シーンデコーダおよびその方法 - Google Patents
ハイブリッドエンコーダ/デコーダ空間解析を使用する音響シーンエンコーダ、音響シーンデコーダおよびその方法 Download PDFInfo
- Publication number
- JP7261807B2 JP7261807B2 JP2020541892A JP2020541892A JP7261807B2 JP 7261807 B2 JP7261807 B2 JP 7261807B2 JP 2020541892 A JP2020541892 A JP 2020541892A JP 2020541892 A JP2020541892 A JP 2020541892A JP 7261807 B2 JP7261807 B2 JP 7261807B2
- Authority
- JP
- Japan
- Prior art keywords
- signal
- spatial
- band
- frequency
- encoder
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 43
- 238000012732 spatial analysis Methods 0.000 title description 10
- 230000003595 spectral effect Effects 0.000 claims description 40
- 238000004458 analytical method Methods 0.000 claims description 37
- 238000012545 processing Methods 0.000 claims description 29
- 230000005236 sound signal Effects 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 11
- 238000001228 spectrum Methods 0.000 claims description 10
- 238000009877 rendering Methods 0.000 claims description 9
- 230000002123 temporal effect Effects 0.000 claims description 7
- 239000003638 chemical reducing agent Substances 0.000 claims description 6
- 238000013139 quantization Methods 0.000 claims description 6
- 230000010076 replication Effects 0.000 claims description 5
- 230000008569 process Effects 0.000 claims description 3
- 239000002775 capsule Substances 0.000 claims description 2
- 230000001419 dependent effect Effects 0.000 claims 2
- 230000001131 transforming effect Effects 0.000 claims 2
- 230000005540 biological transmission Effects 0.000 description 12
- 230000015572 biosynthetic process Effects 0.000 description 12
- 238000003786 synthesis reaction Methods 0.000 description 12
- 238000004091 panning Methods 0.000 description 7
- 238000000926 separation method Methods 0.000 description 6
- 238000009792 diffusion process Methods 0.000 description 4
- 238000003860 storage Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000000354 decomposition reaction Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000002411 adverse Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 238000007405 data analysis Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000013707 sensory perception of sound Effects 0.000 description 2
- 230000007480 spreading Effects 0.000 description 2
- 238000003892 spreading Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 206010011878 Deafness Diseases 0.000 description 1
- 102000005717 Myeloma Proteins Human genes 0.000 description 1
- 108010045503 Myeloma Proteins Proteins 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/032—Quantisation or dequantisation of spectral components
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/008—Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/18—Vocoders using multiple modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/005—Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/04—Circuits for transducers, loudspeakers or microphones for correcting frequency response
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/12—Circuits for transducers, loudspeakers or microphones for distributing signals to two or more loudspeakers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R5/00—Stereophonic arrangements
- H04R5/04—Circuit arrangements, e.g. for selective connection of amplifier inputs/outputs to loudspeakers, for loudspeaker detection, or for adaptation of settings to personal preferences or hearing impairments
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/307—Frequency adjustment, e.g. tone control
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/11—Application of ambisonics in stereophonic audio systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Otolaryngology (AREA)
- Stereophonic System (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Description
本発明の実施形態は、デコーダ側で推定された空間パラメータを有するように選択された信号の部分に対して、信号全体に対してエンコーダ側で推定および符号化されたパラメータを使用するシステムよりも、より良い時間-周波数分解能を提供する。
本発明の実施形態は、エンコーダでのパラメータの解析、符号化およびデコーダへのパラメータの伝送により再構成された信号部分に対して、空間パラメータが復号低次元音響信号を使用してデコーダで推定されるシステムよりも、より良い空間パラメータ値を提供する。
本発明の実施形態は、信号全体のコード化パラメータを使用するシステムまたは信号全体のデコーダ側推定パラメータを使用するシステムのいずれよりも、時間-周波数分解能、伝送速度、およびパラメータ精度の間のより柔軟なトレードオフを可能にする。
本発明の実施形態は、主にパラメトリック符号化ツールを使用して符号化された信号部分に対して、エンコーダ側の推定と信号部分の一部またはすべての空間パラメータの符号化を選択すること、およびそれらの部分に対して一部またはすべての空間パラメータを符号化することにより、より良好なパラメータ精度を提供し、主として符号化される信号部分に対して、波形維持符号化ツールを使用し、それらの信号部分に対する空間パラメータの推定をデコーダ側に委ねることで、より良好な時間-周波数分解能を提供する。
Claims (37)
- 少なくとも2成分の信号を含む音響シーン(110)を符号化する音響シーンエンコーダであり、
前記少なくとも2成分の信号をコア符号化して、前記少なくとも2成分の信号の第1の部分に対して第1の符号化表現(310)を生成し、前記少なくとも2成分の信号の第2の部分に対して第2の符号化表現(320)を生成するコアエンコーダ(160)を備え、
前記コアエンコーダ(160)は、前記少なくとも2成分の信号からひとつの時間フレームを形成する構成であり、ここで、前記時間フレームの第1の周波数サブバンドが前記少なくとも2成分の信号の前記第1の部分であり、前記時間フレームの第2の周波数サブバンドが前記少なくとも2成分の信号の前記第2の部分であり、前記第1の周波数サブバンドが前記第2の周波数サブバンドから所定の境界周波数により分離され、
前記コアエンコーダ(160)はまた、M成分信号を含む前記第1の周波数サブバンドに対して前記第1の符号化表現(310)を生成し、N成分信号を含む前記第2の周波数サブバンドに対して前記第2の符号化表現(320)を生成するように構成され、ここで、MはNより大きく、Nは1以上であり、
前記少なくとも2成分の信号を含む前記音響シーン(110)を解析して、前記第2の周波数サブバンドに対する1以上の空間パラメータ(330)または1以上の空間パラメータセットを導出する空間解析器(200)を備え、
前記M成分信号を含む前記第1の周波数サブバンドに対する前記第1の符号化表現(310)、N成分信号を含む前記第2の周波数サブバンドに対する前記第2の符号化表現(320)、および前記第2の周波数サブバンドに対する前記1以上の空間パラメータ(330)または前記1以上の空間パラメータセット、を含む第2の符号化音響シーン信号(340)を形成する出力インタフェース(300)を備える
音響シーンエンコーダ。 - 前記コアエンコーダ(160)は、前記第1の符号化表現(310)を第1の周波数分解能で生成し、前記第2の符号化表現(320)を前記第1の周波数分解能より低い第2の周波数分解能で生成する構成であり、または、
前記時間フレームの前記第1の周波数サブバンドと前記時間フレームの第2の周波数サブバンドとの間の境界周波数が、スケールファクタ帯域と隣接スケールファクタ帯域との境界と一致する、または前記スケールファクタ帯域と前記隣接スケールファクタ帯域との境界とは一致せず、ここで、前記スケールファクタ帯域と前記隣接スケールファクタ帯域とは前記コアエンコーダ(160)で使用される
請求項1に記載の音響シーンエンコーダ。 - 前記音響シーン(110)は、第1成分信号として全方向性オーディオ信号を含み、第2成分信号として少なくとも1つの指向性オーディオ信号とを含む、または、
前記音響シーン(110)は、第1成分信号として第1の位置に配置された全方向性マイクロフォンによって捕捉された信号を含み、第2成分信号として第1の位置とは異なる第2の位置に位置する全方向性マイクロフォンによって捕捉された少なくとも1つの信号を含む、または、
前記音響シーン(110)は、第1成分信号として第1の方向に向けられた指向性マイクロフォンによって捕捉された少なくとも1つの信号を含み、第2成分信号として前記第1の方向と異なる第2の方向に向けられた指向性マイクロフォンによって捕捉された少なくとも1つの信号を含む
請求項1または2に記載の音響シーンエンコーダ。 - 前記音響シーン(110)は、Aフォーマット成分信号、Bフォーマット成分信号、1次アンビソニックス成分信号、高次アンビソニックス成分信号、または少なくとも2つのマイクロホンカプセルを有するマイクロホンアレイにより捕えられた、または以前に記録または合成された音響シーンから計算された成分の信号を含む、
請求項1から3のいずれか1項に記載の音響シーンエンコーダ。 - 前記出力インタフェース(300)は、前記第2の周波数サブバンドに対して前記空間解析器(200)により生成された前記1以上の空間パラメータ(330)と同じパラメータ種からの空間パラメータを、前記符号化音響シーン信号(340)に含まないように構成され、前記第2の周波数サブバンドのみが前記パラメータ種を有し、前記パラメータ種の任意のパラメータが、前記符号化音響シーン信号(340)内の前記第1の周波数サブバンドに含まれないように構成された
請求項1からの4いずれか1項に記載の音響シーンエンコーダ。 - 前記コアエンコーダ(160)は、前記第2の周波数サブバンドに対してパラメトリックな符号化動作(160b)を実行し、前記第1の周波数サブバンドに対して波形維持または主に波形を維持する符号化動作(160a)を実行するように構成され、または、
前記第2の周波数サブバンドの開始帯域は帯域拡張開始帯域よりも低く、前記コアエンコーダ(160)によるコアノイズ充填動作は、固定交差帯域を持たず、周波数が増加するにつれてコアスペクトルのより多くの部分に対して徐々に使用される
請求項1から5のいずれか1項に記載の音響シーンエンコーダ。 - 前記コアエンコーダ(160)は、前記時間フレームの前記第2の周波数サブバンドに対してパラメトリック処理(160b)を実行するように構成され、前記パラメトリック処理(160b)は、前記第2の周波数サブバンドに対して振幅関連パラメータを計算し、前記第2の周波数サブバンド内の個々のスペクトル線ではなく前記振幅関連パラメータを量子化およびエントロピー符号化し、前記コアエンコーダ(160)はさらに、前記時間フレームの前記第1の周波数サブバンドにおける個々のスペクトル線を量子化およびエントロピー符号化(160a)するように構成され、または
前記コアエンコーダ(160)は、前記少なくとも2成分の信号の前記第2の周波数サブバンドに対応する前記時間フレームの高周波数サブバンドに対してパラメトリック処理(160b)を実行するように構成され、前記パラメトリック処理は、前記高周波数サブバンドの振幅関連パラメータを計算し、前記高周波数サブバンドにおける時間領域信号の代わりに前記振幅関連パラメータを量子化およびエントロピー符号化することを含み、前記コアエンコーダ(160)は、LPC符号化、LPC/TCX符号化、またはEVS符号化またはAMR広帯域符号化またはAMR広帯域プラス符号化のような時間領域符号化動作によって、前記少なくとも2成分の信号の前記第1の周波数サブバンドに対応する前記時間フレームの低周波数サブバンドにおける時間領域音響信号を量子化およびエントロピー符号化(160b)するように構成された、
請求項1から6のいずれか1項に記載の音響シーンエンコーダ。 - 前記パラメトリック処理(160b)は、スペクトル帯域複製(SBR)処理と、インテリジェントギャップ充填(IGF)処理またはノイズ充填処理と、を含む請求項7に記載の音響シーンエンコーダ。
- 前記コアエンコーダ(160)は、前記音響シーン(110)の次元を縮小して低次元音響シーンを得るための次元削減器(150a)を含み、前記コアエンコーダ(160)は、前記低次元音響シーンから前記少なくとも2成分の信号の前記第1の周波数サブバンドについて、前記第1の符号化表現(310)を計算するように構成され、前記空間解析器(200)は、前記低次元音響シーンの次元より高い次元を有する前記音響シーン(110)から空間パラメータ(330)を導出するように構成された、
請求項1から8のいずれか1項に記載の音響シーンエンコーダ。 - 異なるビットレートで動作するように構成され、前記第1の周波数サブバンドと前記第2の周波数サブバンドとの間の前記所定の境界周波数が選択されたビットレートに依存し、前記所定の境界周波数が、より低いビットレートに対して低く、または所定の境界がより高いビットレートに対して高い、請求項1から9のいずれか1項に記載の音響シーンエンコーダ。
- 前記空間解析器(200)は、前記第2の周波数サブバンドに対して、1以上の空間パラメータ(330)として、方向性パラメータと拡散度パラメータのような非方向性パラメータとの少なくとも1つを計算するように構成された
請求項1から10のいずれか1項に記載の音響シーンエンコーダ。 - 前記コアエンコーダ(160)は、
前記少なくとも2成分の信号の前記時間フレームを含む複数の時間フレームのシーケンスを、前記少なくとも2成分の信号に対するスペトルフレームのシーケンスに変換する時間-周波数変換器(164)と、
前記第1の周波数サブバンドに対応するスペクトルフレームの第1のサブバンド内の前記スペクトルフレームのシーケンスのフレームのスペクトル値を量子化およびエントロピー符号化するスペクトルエンコーダ(160a)と、
前記第2の周波数サブバンドに対応する前記スペクトルフレームの第2のサブバンド内の前記スペクトルフレームのスペクトル値をパラメトリックに符号化するパラメトリックエンコーダ(160b)と
を含み、
または
前記コアエンコーダ(160)は、前記時間フレームの低帯域部分であって前記第1の周波数サブバンドに対応する低帯域部分の時間領域または混合された時間領域と周波数領域の符号化動作を実行する時間領域または混合時間領域周波数領域コアエンコーダ(160)を含み、または、
前記空間解析器(200)は、前記第2の周波数サブバンドを分析帯域に細分するように構成され、ひとつの分析帯域の帯域幅は、前記第1の周波数サブバンド内で前記スペクトルエンコーダによって処理される2つの隣接するスペクトル値に関連する帯域幅以上であるか、または前記第1の周波数サブバンドを表す低帯域部分の帯域幅よりも低く、前記空間解析器(200)は、前記第2の周波数サブバンドの各解析帯域について方向性パラメータおよび拡散度パラメータのうちの少なくとも1つを計算するように構成され、または、
前記コアエンコーダ(160)および前記空間解析器(200)は、共通のフィルタバンク(164)または異なる特性を有する異なるフィルタバンク(164、1000)を使用するように構成された
請求項1から11のいずれか1項に記載の音響シーンエンコーダ。 - 前記空間解析器(200)は、前記方向性パラメータを計算するため、前記拡散度パラメータを計算するために使用される解析帯域よりも小さい解析帯域を使用するように構成された、請求項12に記載の音響シーンエンコーダ。
- 前記コアエンコーダ(160)は、前記少なくとも2成分の信号に対して符号化マルチチャネル信号を生成するマルチチャネルエンコーダを備え、または、
前記コアエンコーダ(160)は、前記少なくとも2成分の信号の成分信号の数が3以上である場合に、2以上の符号化マルチチャネル信号を生成するマルチチャネルエンコーダを備え、または、
前記出力インタフェース(300)は、前記第1の周波数サブバンドに対するいずれの空間パラメータ(330)も前記符号化音響シーン信号(340)に含まないように構成され、または、前記第2の周波数サブバンドに対する空間パラメータ(330)の数に比較して少ない数の前記第1の周波数サブバンドに対する空間パラメータを、前記符号化音響シーン信号(340)に含めるように構成された、
請求項1から13のいずれか1項に記載の音響シーンエンコーダ。 - 少なくとも2成分の信号の第1の部分の第1の符号化表現(410)と、前記少なくとも2成分の信号の第2の部分の第2の符号化表現(420)と、前記少なくとも2成分の信号の第2の部分の1以上の空間パラメータ(430)とを含む符号化音響シーン信号(340)を受信する入力インタフェース(400)と、
前記第1の符号化表現(410)および前記第2の符号化表現(420)を復号して、音響シーンを表す前記少なくとも2成分の信号の復号化表現(810、820)を得るコアデコーダ(500)と、
前記少なくとも2成分の信号の前記第1の部分に対応する前記復号化表現の一部分(810)を解析して、前記少なくとも2成分の信号の前記第1の部分に対する1以上の空間パラメータ(840)を導出する空間解析器(600)と、
前記第1の部分に対する前記1以上の空間パラメータ(840)と前記第2の部分に対する前記1以上の空間パラメータ(830)を使用して、前記復号化表現(810、820)を前記符号化音響シーン信号(340)に含まれるように空間的にレンダリングする空間レンダラ(800)と
を備える音響シーンデコーダ。 - 前記符号化音響シーン信号(340)に含まれる前記第2の部分に対する前記1以上の空間パラメータ(430)を復号する空間パラメータ復号器(700)をさらに備え、
前記空間レンダラ(800)は、前記少なくとも2成分の信号の前記復号化表現(810、820)の前記第2の部分をレンダリングするために、前記1以上の空間パラメータ(830)の復号化表現を使用するように構成された
請求項15に記載の音響シーンデコーダ。 - 前記コアデコーダ(500)は、復号フレームのシーケンスを提供するように構成され、前記第1の部分は、前記復号フレームのシーケンスの第1のフレームであり、前記第2の部分は、前記復号フレームのシーケンスの第2のフレームであり、前記コアデコーダ(500)はさらに、後続の復号時間フレームを重ね合わせ加算して前記少なくとも2成分の信号の前記復号化表現(810、820)を得るオーバーラップ加算器をさらに備え、または、
前記コアデコーダ(500)は、重ね合わせ加算動作なしにACELPベースシステム動作を行う構成である
請求項15または16に記載の音響シーンデコーダ。 - 前記コアデコーダ(500)は、復号時間フレームのシーケンスを提供するように構成され、
前記第1の部分は、前記復号時間フレームのシーケンスのひとつの時間フレームの第1のサブバンドであり、前記第2の部分は、前記復号時間フレームのシーケンスの前記時間フレームの第2のサブバンドであり、
前記空間解析器(600)は、前記第1のサブバンドに対して1以上の空間パラメータ(840)を提供するように構成され、
前記空間レンダラ(800)は、
前記第1のサブバンドを、前記時間フレームの前記第1のサブバンドと前記第1のサブバンドに対する前記1以上の空間パラメータ(840)とを用いてレンダリングし、
前記第2のサブバンドを、前記時間フレームの前記第2のサブバンドと前記第2のサブバンドに対する前記1以上の空間パラメータ(830)とを用いてレンダリングする
請求項15から17のいずれか1項に記載の音響シーンデコーダ。 - 前記空間レンダラ(800)は、第1のレンダリングされたサブバンドと第2のレンダリングされたサブバンドとを結合して、レンダリングされた信号の時間フレームを得る結合器を有する請求項18に記載の音響シーンデコーダ。
- 前記空間レンダラ(800)は、ラウドスピーカ配置の各ラウドスピーカに対して、または1次または高次のアンビソニックスフォーマットの各成分に対して、または両耳フォーマットの各成分に対して、レンダリングされた信号を提供するように構成された、請求項15から19のいずれか1項に記載の音響シーンデコーダ。
- 前記空間レンダラ(800)は、
各出力成分に対して、前記少なくとも2成分の信号の前記復号化表現(810、820)から出力成分信号を生成するプロセッサ(870b)と、
前記1以上の空間パラメータ(830、840)を使用して前記出力成分信号を修正する利得プロセッサ(872)と、
前記1以上の空間パラメータ(830、840)を使用して非相関化出力成分信号を生成する重み付け/非相関化プロセッサ(874)と、
前記非相関化出力成分信号と前記出力成分信号とを結合して、レンダリングされたラウドスピーカ信号を得る合成器(876)と
を有する、または、
前記空間レンダラ(800)は、
ラウドスピーカ配置の各ラウドスピーカに対して、少なくとも2成分の信号の前記復号化表現からラウドスピーカ成分信号を計算する仮想マイクロホンプロセッサ(870a)と、
前記1以上の空間パラメータ(830、840)を使用して前記ラウドスピーカ成分信号を修正する利得プロセッサ(872)と、
前記1以上の空間パラメータ(830、840)を使用して非相関化ラウドスピーカ成分信号を生成する重み付け/非相関化プロセッサ(874)と、
前記非相関化ラウドスピーカ成分信号と前記ラウドスピーカ成分信号とを結合して、レンダリングされたラウドスピーカ信号を得る合成器(876)と
を有する
請求項15から20のいずれか1項に記載の音響シーンデコーダ。 - 前記空間レンダラ(800)は、帯域順に動作するように構成され、前記第1の部分は第1のサブバンドであり、この第1のサブバンドは複数の第1の帯域に分割され、前記第2の部分は第2のサブバンドであり、この第2のサブバンドは複数の第2の帯域に分割され、
前記空間レンダラ(800)は、前記解析器によって導出された対応する空間パラメータを使用して、各第1の帯域に対して出力成分信号をレンダリングするように構成され、
前記空間レンダラ(800)は、前記符号化音響シーン信号(340)に含まれる対応する空間パラメータを使用して、各第2の帯域に対する出力成分信号をレンダリングするように構成され、前記複数の第2の帯域のひとつの第2の帯域は、前記複数の第1の帯域のひとつの第1の帯域よりも大きく、
前記空間レンダラ(800)は、前記第1の帯域および前記第2の帯域に対する出力成分信号を結合(878)してレンダリングされた出力信号を得るように構成され、このレンダリングされた出力信号は、ラウドスピーカ信号、Aフォーマット信号、Bフォーマット信号、1次アンビソニックス信号、高次アンビソニックス信号または両耳信号である
請求項15から21のいずれか1項に記載の音響シーンデコーダ。 - 前記コアデコーダ(500)は、前記音響シーンを表現する前記少なくとも2成分の信号の前記復号化表現(810、820)として、第1成分信号として無指向性音響信号を、第2成分信号として少なくとも1つの指向性音響信号を生成するように構成され、または、前記音響シーンを表す前記少なくとも2成分の信号の前記復号化表現(810、820)は、Bフォーマット成分信号または1次のアンビソニックス成分信号、高次アンビソニックス成分信号を含む、請求項15から22のいずれか1項に記載の音響シーンデコーダ。
- 前記符号化音響シーン信号(340)は、前記符号化音響シーン信号(340)に含まれる前記第2の部分に対する前記空間パラメータ(430)と同じ種類の前記少なくとも2成分の信号の前記第1の部分に対するどのような空間パラメータも含まない、請求項15から23のいずれか1項に記載の音響シーンデコーダ。
- 前記コアデコーダ(500)は、前記第2の部分に対するパラメトリック復号動作(510b)を実行し、前記第1の部分に対する波形維持復号動作(510a)を実行するように構成された、請求項15から24のいずれか1項に記載の音響シーンデコーダ。
- 前記コアデコーダ(500)は、振幅関連パラメータをエントロピー復号の後に、前記第2のサブバンドをエンベロープ調整するため、振幅関連パラメータを用いてパラメトリック処理(510b)を実行するように構成され、
前記コアデコーダ(500)は、第1のサブバンド内の個々のスペクトル線をエントロピー復号(510a)するように構成された、
請求項18に記載の音響シーンデコーダ。 - 前記コアデコーダ(500)は、前記第2の符号化表現(420)の復号(510b)のため、スペクトル帯域複製(SBR)処理、インテリジェントギャップ充填(IGF)処理またはノイズ充填処理を行う構成である、請求項15から26のいずれか1項に記載の音響シーンデコーダ。
- 前記第1の部分は時間フレームの第1のサブバンドであり、前記第2の部分は時間フレームの第2のサブバンドであり、コアデコーダ(500)は、前記第1のサブバンドと前記第2のサブバンドとの間の所定の境界周波数を使用するように構成された、請求項15から27のいずれか1項に記載の音響シーンデコーダ。
- 前記音響シーンデコーダは、異なるビットレートで動作するように構成され、前記第1の部分と前記第2の部分との間の所定の境界周波数は、選択されたビットレートに依存し、前記所定の境界周波数は、より低いビットレートに対しては低く、あるいは、前記所定の境界周波数がより大きいビットレートに対して大きい、請求項15から28のいずれか1項に記載の音響シーンデコーダ。
- 前記第1の部分は時間部分の第1のサブバンドであり、前記第2の部分は時間部分の第2のサブバンドであり、
前記空間解析器(600)は、前記第1のサブバンドに対して、前記1以上の空間パラメータ(840)として、方向性パラメータおよび拡散度パラメータの少なくとも1つを計算するように構成された、
請求項15から29のいずれか1項に記載の音響シーンデコーダ。 - 前記第1の部分は時間フレームの第1のサブバンドであり、前記第2の部分は時間フレームの第2のサブバンドであり、
空間解析器(600)は、前記第1のサブバンドを解析帯域に細分するように構成され、ひとつの解析帯域の帯域幅は、前記第1のサブバンドに対して前記コアデコーダ(500)により生成された2つの隣接するスペクトル値に関連する帯域幅以上であり、
前記空間解析器(600)は、各解析帯域に対して方向性パラメータおよび拡散度パラメータの少なくとも1つを計算するように構成された、
請求項15から29のいずれか1項に記載の音響シーンデコーダ。 - 前記空間解析器(600)は、前記方向性パラメータを計算するために前記拡散度パラメータを計算するために用いられる解析帯域よりも小さい解析帯域を使用するように構成された請求項31に記載の音響シーンデコーダ。
- 前記空間解析器(600)は、前記方向性パラメータを計算するために、第1の帯域幅を有する解析帯域を使用するように構成され、
前記空間レンダラ(800)は、前記少なくとも2成分の信号の前記復号化表現(810、820)のレンダリング帯域をレンダリングするために、前記符号化音響シーン信号(340)に含まれる前記少なくとも2成分の信号の前記第2の部分に対して、前記1以上の空間パラメータ(840)のひとつの空間パラメータを使用するように構成され、前記レンダリング帯域は第2の帯域幅を有し、
前記第2の帯域幅は、前記第1の帯域幅よりも大きい、
請求項31または32に記載の音響シーンデコーダ。 - 前記符号化音響シーン信号(340)は、前記少なくとも2成分の信号に対する符号化マルチチャンネル信号を含み、あるいは、前記符号化音響シーン信号(340)は、2より大きい数の成分の信号に対する少なくとも2つの符号化マルチチャンネル信号を含み、
前記コアデコーダ(500)は、前記符号化マルチチャンネル信号または前記少なくとも2つの符号化マルチチャンネル信号をコア復号するマルチチャネルデコーダを有する、
請求項15から33のいずれか1項に記載の音響シーンデコーダ。 - 音響シーン(110)を符号化する方法であって、
前記音響シーン(110)は、少なくとも2成分の信号を含み、
前記少なくとも2成分の信号の第1の部分に対して第1の符号化表現(310)を生成し、前記少なくとも2成分の信号の第2の部分に対して第2の符号化表現(320)を生成して、前記少なくとも2成分の信号をコア符号化し、
前記コア符号化は、前記少なくとも2成分の信号からひとつの時間フレームの形成を含み、ここで、前記時間フレームの第1の周波数サブバンドが前記少なくとも2成分の信号の前記第1の部分であり、前記時間フレームの第2の周波数サブバンドが前記少なくとも2成分の信号の前記第2の部分であり、前記第1の周波数サブバンドが前記第2の周波数サブバンドから所定の境界周波数により分離され、
前記コア符号化はまた、M成分信号を含む前記第1の周波数サブバンドに対して前記第1の符号化表現(310)の生成、およびN成分信号を含む前記第2の周波数サブバンドに対して前記第2の符号化表現(320)の生成を含み、ここで、MはNより大きく、Nは1以上であり、
前記少なくとも2成分の信号を含む前記音響シーン(110)を解析して、前記第2の周波数サブバンドに対して、1以上の空間パラメータ(330)または1以上の空間パラメータセットを導出し、
前記M成分信号を含む前記第1の周波数サブバンドに対する前記第1の符号化表現(310)、N成分信号を含む前記第2の周波数サブバンドに対する前記第2の符号化表現(320)、および前記第2の周波数サブバンドに対する前記1以上の空間パラメータ(330)または前記1以上の空間パラメータセットを含む符号化音響シーン信号(340)を形成する
音響シーンの符号化方法。 - 少なくとも2成分の信号の第1の部分の第1の符号化表現(410)と、前記少なくとも2成分の信号の第2の部分の第2の符号化表現(420)と、前記少なくとも2成分の信号の第2の部分の1以上の空間パラメータ(430)とを含む符号化音響シーン信号(340)を受信し、
前記第1の符号化表現(410)および前記第2の符号化表現(420)を復号して、音響シーンを表す前記少なくとも2成分の信号の復号化表現(810、820)を取得し、
前記少なくとも2成分の信号の前記第1の部分に対応する前記復号化表現の一部(810)を解析して、前記少なくとも2成分の信号の前記第1の部分に対する1以上の空間パラメータ(840)を導出し、
前記第1の部分に対する前記1以上の空間パラメータ(840)と、前記第2の部分に対する前記1以上の空間パラメータ(430)と、を使用して、前記少なくとも2成分の信号の前記復号化表現(810、820)を、前記符号化音響シーン信号(340)に含まれるように空間的にレンダリングする
音響シーンの復号化方法。 - コンピュータまたはプロセッサ上で動作する際に、請求項35に記載の方法または請求項36に記載の方法を実行するためのコンピュータプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023063771A JP2023085524A (ja) | 2018-02-01 | 2023-04-10 | ハイブリッドエンコーダ/デコーダ空間解析を使用する音響シーンエンコーダ、音響シーンデコーダおよびその方法 |
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP18154749 | 2018-02-01 | ||
EP18154749.8 | 2018-02-01 | ||
EP18185852.3 | 2018-07-26 | ||
EP18185852 | 2018-07-26 | ||
PCT/EP2019/052428 WO2019149845A1 (en) | 2018-02-01 | 2019-01-31 | Audio scene encoder, audio scene decoder and related methods using hybrid encoder/decoder spatial analysis |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023063771A Division JP2023085524A (ja) | 2018-02-01 | 2023-04-10 | ハイブリッドエンコーダ/デコーダ空間解析を使用する音響シーンエンコーダ、音響シーンデコーダおよびその方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021513108A JP2021513108A (ja) | 2021-05-20 |
JP7261807B2 true JP7261807B2 (ja) | 2023-04-20 |
Family
ID=65276183
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020541892A Active JP7261807B2 (ja) | 2018-02-01 | 2019-01-31 | ハイブリッドエンコーダ/デコーダ空間解析を使用する音響シーンエンコーダ、音響シーンデコーダおよびその方法 |
JP2023063771A Pending JP2023085524A (ja) | 2018-02-01 | 2023-04-10 | ハイブリッドエンコーダ/デコーダ空間解析を使用する音響シーンエンコーダ、音響シーンデコーダおよびその方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023063771A Pending JP2023085524A (ja) | 2018-02-01 | 2023-04-10 | ハイブリッドエンコーダ/デコーダ空間解析を使用する音響シーンエンコーダ、音響シーンデコーダおよびその方法 |
Country Status (16)
Country | Link |
---|---|
US (3) | US11361778B2 (ja) |
EP (2) | EP3724876B1 (ja) |
JP (2) | JP7261807B2 (ja) |
KR (2) | KR20240101713A (ja) |
CN (2) | CN118197326A (ja) |
AU (1) | AU2019216363B2 (ja) |
BR (1) | BR112020015570A2 (ja) |
CA (1) | CA3089550C (ja) |
ES (1) | ES2922532T3 (ja) |
MX (1) | MX2020007820A (ja) |
PL (1) | PL3724876T3 (ja) |
RU (1) | RU2749349C1 (ja) |
SG (1) | SG11202007182UA (ja) |
TW (1) | TWI760593B (ja) |
WO (1) | WO2019149845A1 (ja) |
ZA (1) | ZA202004471B (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109547711A (zh) * | 2018-11-08 | 2019-03-29 | 北京微播视界科技有限公司 | 视频合成方法、装置、计算机设备及可读存储介质 |
GB201914665D0 (en) * | 2019-10-10 | 2019-11-27 | Nokia Technologies Oy | Enhanced orientation signalling for immersive communications |
GB2595871A (en) * | 2020-06-09 | 2021-12-15 | Nokia Technologies Oy | The reduction of spatial audio parameters |
CN114067810A (zh) * | 2020-07-31 | 2022-02-18 | 华为技术有限公司 | 音频信号渲染方法和装置 |
CN115881140A (zh) * | 2021-09-29 | 2023-03-31 | 华为技术有限公司 | 编解码方法、装置、设备、存储介质及计算机程序产品 |
KR20240116488A (ko) * | 2021-11-30 | 2024-07-29 | 돌비 인터네셔널 에이비 | 장면-기반 몰입형 오디오 콘텐츠의 코딩 또는 디코딩을 위한 방법 및 디바이스 |
WO2023234429A1 (ko) * | 2022-05-30 | 2023-12-07 | 엘지전자 주식회사 | 인공 지능 기기 |
WO2024208420A1 (en) | 2023-04-05 | 2024-10-10 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Audio processor, audio processing system, audio decoder, method for providing a processed audio signal representation and computer program using a time scale modification |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009501948A (ja) | 2005-07-19 | 2009-01-22 | フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ | パラメトリックマルチチャネルオーディオ符号化とマトリックスサラウンドマルチチャネル符号化との間のギャップを埋めるための概念 |
JP2016510569A (ja) | 2013-02-14 | 2016-04-07 | ドルビー ラボラトリーズ ライセンシング コーポレイション | 推定された空間的パラメータを使ったオーディオ信号の向上 |
US20170365264A1 (en) | 2015-03-09 | 2017-12-21 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Audio encoder for encoding a multichannel signal and audio decoder for decoding an encoded audio signal |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4363122A (en) * | 1980-09-16 | 1982-12-07 | Northern Telecom Limited | Mitigation of noise signal contrast in a digital speech interpolation transmission system |
EP3712888B1 (en) * | 2007-03-30 | 2024-05-08 | Electronics and Telecommunications Research Institute | Apparatus and method for coding and decoding multi object audio signal with multi channel |
KR101452722B1 (ko) * | 2008-02-19 | 2014-10-23 | 삼성전자주식회사 | 신호 부호화 및 복호화 방법 및 장치 |
JP5243527B2 (ja) * | 2008-07-29 | 2013-07-24 | パナソニック株式会社 | 音響符号化装置、音響復号化装置、音響符号化復号化装置および会議システム |
EP2224433B1 (en) * | 2008-09-25 | 2020-05-27 | Lg Electronics Inc. | An apparatus for processing an audio signal and method thereof |
CN105225667B (zh) | 2009-03-17 | 2019-04-05 | 杜比国际公司 | 编码器系统、解码器系统、编码方法和解码方法 |
ES2871224T3 (es) * | 2011-07-01 | 2021-10-28 | Dolby Laboratories Licensing Corp | Sistema y método para la generación, codificación e interpretación informática (o renderización) de señales de audio adaptativo |
CN103165136A (zh) * | 2011-12-15 | 2013-06-19 | 杜比实验室特许公司 | 音频处理方法及音频处理设备 |
CN104054126B (zh) * | 2012-01-19 | 2017-03-29 | 皇家飞利浦有限公司 | 空间音频渲染和编码 |
WO2014046916A1 (en) * | 2012-09-21 | 2014-03-27 | Dolby Laboratories Licensing Corporation | Layered approach to spatial audio coding |
EP2830045A1 (en) * | 2013-07-22 | 2015-01-28 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Concept for audio encoding and decoding for audio channels and audio objects |
EP2963949A1 (en) * | 2014-07-02 | 2016-01-06 | Thomson Licensing | Method and apparatus for decoding a compressed HOA representation, and method and apparatus for encoding a compressed HOA representation |
KR102219752B1 (ko) * | 2016-01-22 | 2021-02-24 | 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. | 채널 간 시간 차를 추정하기 위한 장치 및 방법 |
US10454499B2 (en) * | 2016-05-12 | 2019-10-22 | Qualcomm Incorporated | Enhanced puncturing and low-density parity-check (LDPC) code structure |
WO2018064296A1 (en) * | 2016-09-29 | 2018-04-05 | Dolby Laboratories Licensing Corporation | Method, systems and apparatus for determining audio representation(s) of one or more audio sources |
-
2019
- 2019-01-31 CN CN202410317506.9A patent/CN118197326A/zh active Pending
- 2019-01-31 CN CN201980024782.3A patent/CN112074902B/zh active Active
- 2019-01-31 SG SG11202007182UA patent/SG11202007182UA/en unknown
- 2019-01-31 EP EP19702889.7A patent/EP3724876B1/en active Active
- 2019-01-31 CA CA3089550A patent/CA3089550C/en active Active
- 2019-01-31 WO PCT/EP2019/052428 patent/WO2019149845A1/en active Search and Examination
- 2019-01-31 AU AU2019216363A patent/AU2019216363B2/en active Active
- 2019-01-31 MX MX2020007820A patent/MX2020007820A/es unknown
- 2019-01-31 EP EP22171223.5A patent/EP4057281A1/en active Pending
- 2019-01-31 KR KR1020247020547A patent/KR20240101713A/ko unknown
- 2019-01-31 KR KR1020207025235A patent/KR20200116968A/ko not_active Application Discontinuation
- 2019-01-31 ES ES19702889T patent/ES2922532T3/es active Active
- 2019-01-31 RU RU2020128592A patent/RU2749349C1/ru active
- 2019-01-31 BR BR112020015570-5A patent/BR112020015570A2/pt active Search and Examination
- 2019-01-31 TW TW108103887A patent/TWI760593B/zh active
- 2019-01-31 JP JP2020541892A patent/JP7261807B2/ja active Active
- 2019-01-31 PL PL19702889.7T patent/PL3724876T3/pl unknown
-
2020
- 2020-07-20 ZA ZA2020/04471A patent/ZA202004471B/en unknown
- 2020-07-30 US US16/943,065 patent/US11361778B2/en active Active
-
2021
- 2021-12-20 US US17/645,110 patent/US11854560B2/en active Active
-
2023
- 2023-04-10 JP JP2023063771A patent/JP2023085524A/ja active Pending
- 2023-06-07 US US18/330,953 patent/US20230317088A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009501948A (ja) | 2005-07-19 | 2009-01-22 | フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ | パラメトリックマルチチャネルオーディオ符号化とマトリックスサラウンドマルチチャネル符号化との間のギャップを埋めるための概念 |
JP2016510569A (ja) | 2013-02-14 | 2016-04-07 | ドルビー ラボラトリーズ ライセンシング コーポレイション | 推定された空間的パラメータを使ったオーディオ信号の向上 |
US20170365264A1 (en) | 2015-03-09 | 2017-12-21 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Audio encoder for encoding a multichannel signal and audio decoder for decoding an encoded audio signal |
US20170365263A1 (en) | 2015-03-09 | 2017-12-21 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Audio encoder for encoding a multichannel signal and audio decoder for decoding an encoded audio signal |
Also Published As
Publication number | Publication date |
---|---|
RU2749349C1 (ru) | 2021-06-09 |
KR20200116968A (ko) | 2020-10-13 |
CN118197326A (zh) | 2024-06-14 |
EP4057281A1 (en) | 2022-09-14 |
PL3724876T3 (pl) | 2022-11-07 |
TWI760593B (zh) | 2022-04-11 |
WO2019149845A1 (en) | 2019-08-08 |
JP2021513108A (ja) | 2021-05-20 |
ES2922532T3 (es) | 2022-09-16 |
EP3724876B1 (en) | 2022-05-04 |
CA3089550A1 (en) | 2019-08-08 |
US11361778B2 (en) | 2022-06-14 |
CA3089550C (en) | 2023-03-21 |
EP3724876A1 (en) | 2020-10-21 |
US20220139409A1 (en) | 2022-05-05 |
AU2019216363B2 (en) | 2021-02-18 |
BR112020015570A2 (pt) | 2021-02-02 |
SG11202007182UA (en) | 2020-08-28 |
ZA202004471B (en) | 2021-10-27 |
TW201937482A (zh) | 2019-09-16 |
MX2020007820A (es) | 2020-09-25 |
AU2019216363A1 (en) | 2020-08-06 |
JP2023085524A (ja) | 2023-06-20 |
US20200357421A1 (en) | 2020-11-12 |
CN112074902B (zh) | 2024-04-12 |
KR20240101713A (ko) | 2024-07-02 |
US20230317088A1 (en) | 2023-10-05 |
CN112074902A (zh) | 2020-12-11 |
US11854560B2 (en) | 2023-12-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7261807B2 (ja) | ハイブリッドエンコーダ/デコーダ空間解析を使用する音響シーンエンコーダ、音響シーンデコーダおよびその方法 | |
TWI550598B (zh) | 使用聯合編碼殘餘信號之音訊編碼器、音訊解碼器、方法及電腦程式 | |
CN103474077B (zh) | 音频信号译码器、提供上混信号表示型态的方法 | |
CN109448741B (zh) | 一种3d音频编码、解码方法及装置 | |
AU2021359777B2 (en) | Apparatus and method for encoding a plurality of audio objects using direction information during a downmixing or apparatus and method for decoding using an optimized covariance synthesis | |
TWI825492B (zh) | 對多個音頻對象進行編碼的設備和方法、使用兩個以上之相關音頻對象進行解碼的設備和方法、電腦程式及資料結構產品 | |
JP2023549038A (ja) | パラメータ変換を用いて符号化されたオーディオシーンを処理するための装置、方法、またはコンピュータプログラム | |
JP2023549033A (ja) | パラメータ平滑化を用いて符号化されたオーディオシーンを処理するための装置、方法、またはコンピュータプログラム | |
JP2023548650A (ja) | 帯域幅拡張を用いて符号化されたオーディオシーンを処理するための装置、方法、またはコンピュータプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200930 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210924 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211102 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220126 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220502 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220920 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221220 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230207 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230308 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230410 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7261807 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |