JP7261807B2 - ハイブリッドエンコーダ/デコーダ空間解析を使用する音響シーンエンコーダ、音響シーンデコーダおよびその方法 - Google Patents

ハイブリッドエンコーダ/デコーダ空間解析を使用する音響シーンエンコーダ、音響シーンデコーダおよびその方法 Download PDF

Info

Publication number
JP7261807B2
JP7261807B2 JP2020541892A JP2020541892A JP7261807B2 JP 7261807 B2 JP7261807 B2 JP 7261807B2 JP 2020541892 A JP2020541892 A JP 2020541892A JP 2020541892 A JP2020541892 A JP 2020541892A JP 7261807 B2 JP7261807 B2 JP 7261807B2
Authority
JP
Japan
Prior art keywords
signal
spatial
band
frequency
encoder
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020541892A
Other languages
English (en)
Other versions
JP2021513108A (ja
Inventor
フックス,ギヨーム
バイエル,シュテファン
ムルトルス,マルクス
ティエアガルト,オリヴェル
ブテオン,アレキサンドレ
ヘッレ,ユルゲン
ギド,フロリン
イェゲルス,ヴォルフガング
キュヒ,ファビアン
Original Assignee
フラウンホーファー-ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フラウンホーファー-ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン filed Critical フラウンホーファー-ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン
Publication of JP2021513108A publication Critical patent/JP2021513108A/ja
Priority to JP2023063771A priority Critical patent/JP2023085524A/ja
Application granted granted Critical
Publication of JP7261807B2 publication Critical patent/JP7261807B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/032Quantisation or dequantisation of spectral components
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/04Circuits for transducers, loudspeakers or microphones for correcting frequency response
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/12Circuits for transducers, loudspeakers or microphones for distributing signals to two or more loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/04Circuit arrangements, e.g. for selective connection of amplifier inputs/outputs to loudspeakers, for loudspeaker detection, or for adaptation of settings to personal preferences or hearing impairments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/307Frequency adjustment, e.g. tone control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/11Application of ambisonics in stereophonic audio systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Stereophonic System (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

本発明は、音響(オーディオ)の符号化または復号化に関し、特に、ハイブリッド・エンコーダ/デコーダ・パラメトリック空間音響符号化に関する。
3次元の音響シーンを伝送するには、通常、大量のデータを送信する複数のチャンネルを処理する必要がある。さらに、3Dサウンドは、各伝送チャンネルがスピーカの位置に関連付けられている従来のチャンネルベースのサウンド;スピーカの位置とは無関係に独立に3次元に配置される音響ブジェクトを通じて搬送されるサウンド;音響シーンが空間直交球面調和ベース関数の線形重みである1組の係数信号により表現されるシーンベース(またはアンビソニックス);などの種々の方法で表現される。チャンネルベースの表現とは対照的にシーンベースの表現は、特定のスピーカ設定とは独立しており、デコーダでの追加のレンダリングプロセスが必要となるものの、任意のスピーカ設定で再生することができる。
これらの各フォーマットについて、音響信号を低ビットレートで効率的に保存または伝送するため、専用の符号化方式が開発されている。例えば、MPEGサラウンドは、チャンネルベースのサラウンド・サウンドのパラメトリック符号化方式であり、MPEG空間音響オブジェクト符号化(SAOC: Spatial Audio Object Coding)は、オブジェクトベースの音響専用のパラメトリック符号化方式である。最近の標準MPEG-Hフェーズ2では、高次のアンビソニックス用のパラメトリック符号化技術も提供されている。
この伝送シナリオでは、全信号のための空間パラメータが、常に、符号化および伝送される信号、すなわち、エンコーダ内ですべての利用可能な3Dサウンドシーンに基づいて推定、符号化され、デコーダ内で音響シーンの再構成のために復号化、使用される信号、の一部となる。伝送のための速度制約により、通常、伝送されるパラメータの時間-周波数解像度は、制限され、伝送される音響データの時間-周波数解像度より低くされる。
3次元音響シーンを作成する別の実現性として、低次元表現、例えば2チャンネルステレオあるいは1次アンビソニックス表現を、低次元表現から直接に推測されたキューおよびパラメータを用いて、所望の次元にアップミックスすることがある。この場合、時間-周波数分解能は必要に応じて細かく選択することができる。一方、使用された低次元でたぶん符号化された音響シーンの表現は、空間キューおよびパラメータの準最適推定を導く。特に、解析された音響シーンが、パラメトリック音響符号化ツールおよびセミパラメトリック音響符号化ツールを使用して符号化および伝送された場合、元の信号の空間キューは、低次元表現だけで発生以上の擾乱をうける。
パラメトリック符号化ツールを使用する低レート音響符号化は、近年、進歩を示している。非常に低いビットレートでの音響信号の符号化のこのような進歩は、いわゆるパラメトリック符号化ツールの広範囲にわたる使用をもたらし、高品質を保証している。波形維持符号化、すなわち量子化雑音のみが符号化音響信号に付加される符号化、例えば、MPEG-2 AACやMPEG-1 MP3などの知覚モデルを使用する量子化雑音の時間-周波数変換ベースの符号化およびシェーピングを使用する符号化、を使用すると、特に低ビットレートに対して、可聴量子化雑音を引き起こす。
この問題を克服するために開発されたパラメトリック符号化ツールでは、信号の一部を直接には符号化しないが、デコーダで、所望の音響信号のパラメトリック記述を使用して再生する。パラメトリック記述は、必要とする伝送速度が波形維持符号化よりも低い。これらの方法は、信号の波形を保持しようとするものではないが、元の信号と知覚的に等しい音響信号を生成する。このようなパラメトリック符号化ツールの例としては、スペクトルバンド折り返し(SBR:Spectral Band Replication)のような帯域幅拡張がある。SBRでは、復号化信号のスペクトル表現の高帯域部分が、波形符号化された低帯域スペクトル信号部をコピーし、上記のパラメータに従って適応させることによって生成される。別の方法は、インテリジェントギャップフィリング(IGF:Intelligent Gap Filling)である。IGFでは、スペクトル表現の一部のバンドが直接に符号化され、その一方で、エンコーダでゼロに量子化されたバンドが、既に復号化された、伝送されたパラメータに従って再び選択、調整されたスペクトルの他のバンドに、置き換えられる。3番目に使用されるパラメトリック符号化ツールは、ノイズフィリングである。ノイズフィリングでは、信号またはスペクトルの一部がゼロに量子化され、ランダムノイズで充填され、伝送されたパラメーターに従って調整される。中ないし低ビットレートでの符号化に使用される最近の音響符号化標準では、このようなパラメトリックツールを組み合わせて使用して、これらのビットレートの知覚品質を高めている。そのような標準の例としては、xHE-AAC、MPEG4-H、およびEVSがある。
DirAC空間パラメータ推定とブラインドアップミックスが、さらなる手順である。DirACは、知覚的に動機付けられた空間サウンド再生である。ここで、仮定として、ある時点ある臨界帯域において、聴覚システムの空間分解能が、方向についてのひとつのキューと聴覚間の可干渉性または拡散性についての別のキューの復号化に制限されるものとする。
これらの仮定に基づいて、DirACでは、ひとつの周波数帯域の空間サウンドを、2つのストリーム:無指向性拡散ストリームと指向性非拡散ストリーム、をクロスフェードすることにより、1つの周波数帯域の空間サウンドを表現する。DirAC処理は、図5aおよび5bに示す解析と合成の2つのフェーズで実行される。
図5aに示すDirAC解析段では、Bフォーマットの一次同時受音マイクロロホンが入力と見なされ、音の拡散と到来方向が周波数領域で解析される。図5bに示すDirAC合成段では、音は2つのストリーム、非拡散ストリームと拡散ストリームに分割される。非拡散ストリームは、振幅パニングを使用するポイントソースとして再現され、ベクトルベース振幅パンニング(VBAP:vector base amplitude panning)(特許文献2)を使用して行われる。拡散ストリームは、包み込む感覚をもたらすものであり、相互に相関のない信号をスピーカに伝達することによって生成される。
図5aの解析段には、帯域フィルタ1000、エネルギ推定器1001、強度推定器1002、時間平均部999aおよび999b、拡散度計算器1003および方向計算器1004が設けられる。計算された空間パラメータは、各時間/周波数タイルに対する0と1との間の拡散性の値(拡散度)である。図5aにおいて、方向パラメータは、方位角と仰角を含む。これらの方位角および仰角は、基準点またはリスニング位置、特にマイクロホンが配置されている位置からのサウンドの到来方向を示す。マイクロホンからは、帯域フィルタ1000への入力の4成分の信号が収集される。これらの成分信号(成分信号)は、図5aに示すように、無指向性成分W、指向性成分X、別の指向性成分Yおよびさらなる指向性成分Zを含む一次アンビソニックス成分である。
図5bに示されるDirAC合成段には、Bフォーマットのマイクロホン信号W、X、Y、Zの時間-周波数表現を生成する帯域フィルタ1005を備える。個々の時間/周波数タイルに対応する信号は、各チャンネルに対して、仮想マイクロホン信号を生成する仮想マイクロホンステージ1006に入力される。特に、例えば中央チャンネルに対して仮想マイクロホン信号を生成するためには、仮想マイクロホンは中央チャンネルの方向に向けられ、得られる信号は、中央チャンネルに対応する成分信号となる。この信号は、直接信号ブランチ1015と拡散信号ブランチ1014とを介して処理される。両方のブランチには、対応するゲイン調整器または増幅器を有し、これらは、ブロック1007、1008内のオリジナルの拡散度パラメータから導出される拡散値によって制御され、さらに、所定のマイク補正を得るためにブロック1009,1010で処理される。
直接信号ブランチ1015内の成分信号はまた、方位角および仰角からなる方向パラメータから導出された利得パラメータを使用して、利得調整される。特に、これらの角度は、VBAP(ベクトルベース振幅パンニング)利得テーブル1011に入力される。結果は、各チャンネルのスピーカ利得平均化段1012に入力され、さらに正規化回路1013を経由し、得られた利得パラメータが、直接信号ブランチ1015内の増幅器または利得調整器に送られる。非相関器1016の出力で生成された拡散信号と直接信号すなわち非拡散ストリームとは、結合器1017で結合され、その後、他のサブバンドが他の結合器1018で追加される。結合器1018は、例えば、合成フィルタバンクである。したがって、ひとつのラウドスピーカに対するラウドスピーカ信号が生成され、同じ手順が、そのラウドスピーカ設定における他のラウドスピーカ1019のための他のチャンネルに実行される。
高品質バージョンのDirAC合成を図5bに示す。ここで、シンセサイザは、すべてのBフォーマット信号を受信し、そこから各マイクロホン信号を各スピーカ方向について計算する。利用される指向性パターンは、典型的には、ダイポールである。次に、仮想マイクロホン信号が、分岐1016および1015に関して説明したように、メタデータに応じて非線形に修正される。低ビットレートバージョンのDirACは、図5bには示されていない。ただし、この低ビットレートバージョンでは、音響の単一チャンネルのみが送信される。処理の違いは、すべての仮想マイクロホン信号が、受信される音響の単一チャンネルに置き換えられることである。仮想マイクロホン信号は、拡散ストリームと非拡散ストリームの2つのストリームに分割され、別々に処理される。非拡散音は、ベクトルベース振幅パンニング(VBAP)を使用して、点音源として再生される。パンニングでは、モノフォニックサウンド信号が、ラウドスピーカ固有の利得係数を乗算した後、スピーカのサブセットに適用される。利得係数は、スピーカの設定と指定されたパン方向の情報を使用して計算される。低ビットレートバージョンでは、入力信号が、メタデータによって示される方向にパンされるだけである。高品質バージョンでは、各仮想マイクロホン信号に、対応する利得係数が乗算される。これにより、パンと同じ効果が得られ、それでいて、非線形アーティファクトが発生し難くなる。
拡散サウンドを合成する目的は、リスナーを取り囲むサウンドの知覚を作り出すことである。低ビットレートバージョンでは、入力信号を非相関化してそれをすべてのスピーカから再生することにより、拡散ストリームが再生される。高品質バージョンでは、拡散ストリームの仮想マイクロホン信号がすでにある程度コヒーレントではなく、少し非相関化するだけでよい。
DirACパラメータは、空間メタデータとも呼ばれ、拡散度と方向のタプルで構成される。球面座標では、方位角と仰角の2つの角度で表される。解析と合成の両方の段階がデコーダ側で実行される場合、DirACパラメータの時間-周波数分解能は、DirAC解析と合成に使用されるフィルタバンク、すなわち音響信号のフィルタバンク表現のすべての時間スロットおよび周波数ビンに対する独特のパラメータセット、と同じになるように選択される。
デコーダ側でのみ空間音響符号化システムで解析を実行する場合の問題は、上述したように、中から低ビットレートのパラメトリックツールが使用されることである。これらのツールの非波形保持特性により、主にパラメトリック符号化が使用されるスペクトル部分の空間解析では、元の信号の解析が生成するはずの空間パラメータとは非常に異なる値を導き出す可能性がある。図2aと2bは、そのようなミスマッチのシナリオを示す。ここで、DirAC解析が、コード化されていない信号(a)と、部分的波形保存およびパラメットリックな符号化を用いる符号器を用いた低ビットレートのBフォーマット送信伝送信号(b)とで実行される。特に拡散性に関して、大きな違いが見られる。
最近、エンコーダでDirAC解析を使用し、コード化された空間パラメータをデコーダに送信する空間音響符号化方法が、非特許文献1,2に開示されている。図3は、DirAC空間サウンド処理を音響コーダに結合するエンコーダおよびデコーダのシステム概要を示す。マルチチャンネル入力信号、1次アンビソニックス(FOA)、または高次アンビソニックス(HOA)信号またはオブジェクトのダウンミックスを含みエネルギメタデータおよび/または相関データのようなオブジェクトメタデータに対応する1以上のトランスポート信号により構成されるオブジェクト符号化信号のような入力信号が、フォーマット変換・結合器900に入力される。フォーマット変換・結合器900は、入力信号のそれぞれを対応するBフォーマット信号に変換するように構成され、さらに、異なる表現で受け取ったストリームを、対応するBフォーマット成分を一緒に加えることにより、あるいは、加重加算または異なる入力データの異なる情報の選択を含む他の結合技術により、結合する。
結果として得られたBフォーマット信号は、到来方向メタデータおよび拡散性メタデータなどのDirACメタデータを導出するためにDirAC解析器210に導入され、得られた信号は、空間メタデータエンコーダ220を使用してエンコードされる。さらに、Bフォーマット信号は、Bフォーマット信号をトランスポートチャンネルまたはいくつかのトランスポートチャンネルにダウンミックスするためにビームフォーマ/信号セレクタに送られ、その後、EVSベースのコアエンコーダー140を使用してエンコードされる。
一方のブロック220および他方のブロック140の出力は、符号化された音響シーンを表現する。符号化音響シーンはデコーダに送られ、デコーダでは、空間メタデータデコーダ700が符号化空間メタデータを受け取り、EVSベースのコアデコーダ500が符号化トランスポートチャンネルを受け取る。ブロック700によって得られた復号空間メタデータは、DirAC合成ステージ800に送られ、ブロック500の出力における復号された1つまたは複数のトランスポートチャンネルが、ブロック860において周波数解析にかけられる。結果として得られる時間/周波数デコンポジッションもDirACシンセサイザ800に送られ、そこで、復号された音響シーンとして、ラウドスピーカ信号または一次アンビソニックスまたは高次アンビソニックス成分または音響シーンの任意の他の表現を生成する。
特許文献1、2に開示されている手順では、DirACメタデータすなわち空間パラメータが推定され、低ビットレートで符号化されてデコーダに送信される。デコーダでは、空間パラメータが、音響信号の低次元表現と共に3D音響シーンを再構成するために使用される。
本発明では、DirACメタデータ、すなわち空間パラメータは、低ビットレートで推定および符号化され、デコーダに送信され、そこで、音響信号の低次元表現と共に、3D音響シーンを再構築するために使用される。
メタデータのための低ビットレートを実現するために、時間-周波数分解能は、3D音響シーンの解析および合成で使用されるフィルタバンクの時間-周波数分解能よりも小さくなる。図4aおよび4bは、DirAC解析の非符号化および非グループ化空間パラメータ(a)と、特許文献1で開示されているDirAC空間音響符号化システムを符号化および伝送されたDirACメタデータと共に用いる同じ信号の符号化およびグループ化パラメータとの比較を示す。図2aと図2bとを比較すると、デコーダ(b)で使用されるパラメータは、元の信号から推定されるパラメータに近いが、時間-周波数分解能は、デコーダのみの推定よりも低いことがわかる。
本発明の目的は、音響シーンの符号化または復号などの処理のための改善された概念を提供することにある。
この目的は、請求項1の音響シーンエンコーダ、請求項15の音響シーンデコーダ、請求項35の音響シーンの符号化方法、請求項36の音響シーンの復号方法、請求項37のコンピュータープログラム、または請求項38に記載のエンコードされた音響シーンにより達成される。
本発明は、改善された音響品質およびより高い柔軟性、および一般に改善された性能が、ハイブリッド符号化/復号スキームを適用することによって得られるという発見に基づいている。ここで、復号された二次元または三次元の音響シーンを生成するためにデコーダ内で使用される空間パラメータは、デコーダ内で、シーンの時間-周波数表現のいくつかの部分に対して符号化および伝送された典型的には低次元音響表現に基づいて推定され、他の部分に対してエンコーダ内で推定、量子化および符号化されてデコーダに伝送される。
実装によっては、エンコーダ側での推定領域とデコーダ側の推定領域との分離は、デコーダでの3次元または2次元の音響シーンの生成に使用されるさまざまな空間パラメーターによって異なる場合がある。
実施形態では、異なる部分または好ましくは時間-周波数領域への区分は、任意とすることができる。しかし、好ましい実施形態では、主に波形を維持する方法で符号化されるスペクトルの部分についてデコーダでパラメータを推定し、その一方で、パラメトリック符号化ツールが主に使用されたスペクトルの部分については、エンコーダによって計算されたパラメータを符号化して伝送することが有利である。
本発明の実施形態は、エンコーダで推定符号化された3D音響シーンの再構成に使用される空間パラメータが、一部分がエンコーダで推定符号化されてデコーダに伝送され、残りの部分がデコーダで直接に推定されるハイブリッド符号化システムを使用することにより、3D音響シーンを伝送するための低ビットレート符号化ソリューションを提案することを目的とする。
本発明は、信号の一部に対してパラメータを推定するだけのデコーダのためのハイブリッドアプローチに基づく3D音響再生を開示する。ここで、音響エンコーダ内で空間表現が低次元に持ち込まれ、その低次元表現を符号化し、エンコーダ内で推定し、エンコーダ低で符号化し、空間キューおよびパラメータをエンコーダからデコーダにスペクトルの一部として伝送した後でも、空間キューは良好に保たれる。ここで、低次元表現の符号化に伴う低次元性は、空間パラメータの準最適推定を導くと考えられる。
一実施形態において、音響シーンエンコーダは、音響シーンをエンコードするように構成される。音響シーンは、少なくとも2つの成分信号を含む。音響シーンエンコーダは、少なくとも2つの成分信号をコアエンコードするように構成されたコアエンコーダを含み、コアエンコーダは、少なくとも2つの成分信号のうちの第1部分に対して第1の符号化表現を生成し、少なくとも2つの成分信号のうちの第2部分に対して第2符号化表現を生成する。空間解析器は、音響シーンを解析して、第2部分の1以上の空間パラメータまたは1以上の空間パラメーターセットを導出し、出力インタフェースは、このとき、第1の符号化表現、第2の符号化表現、および第2部分に対する1つ以上の空間パラメータまたは1つ以上の空間パラメータセットを含む符号化音響シーン信号を形成する。通常、第1部分に対するどの空間パラメータも、符号化音響信号には含まれない。その理由は、これらの空間パラメータは、デコーダ内の復号された第1表現からデコーダで推定されるからである。一方、第2部分の空間パラメータは、元の音響シーンまたは既に処理されその次元ひいてはビットレートが削減された音響シーンに基づいて、音響シーンエンコーダ内で既に計算されている。
したがって、エンコーダで計算されたパラメータは、高品質のパラメトリック情報を運ぶことができる。その理由は、これらのパラメータが、コアエンコーダの歪みの影響を受けず、高品質マイクロホンアレイから得られる信号のような非常に高次元で利用できる可能性さえある非常に正確なデータからエンコーダで計算されるためある。そのような非常に高品質のパラメトリック情報が保存されるという事実により、第2部分をより低い精度または通常はより低解像度でコア符号化することが可能になる。したがって、第2部分をかなり粗くコア符号化することで、ビットを節約することができ、したがって、それを符号化空間メタデータの表現に与えることができる。第2部分の非常に粗い符号化によって節約されたビットは、少なくとも2つの成分信号の最初の部分の高解像度符号化に利用することもできる。少なくとも2つの成分信号の高解像度または高品質の符号化は有用である。その理由は、デコーダ側では、パラメトリック空間データは第1の部分には存在せず、空間解析によってデコーダ内で導出されるからである。したがって、すべての空間メタデータをエンコーダで計算するのではなく、少なくとも2つの成分信号をコア符号化することで、そうしない場合には符号化メタデータが必要となるどのビットも確保しておくことができ、第1部分内の少なくとも2つの成分信号を高品質コア符号化することができる。
したがって、本発明によれば、音響シーンの第1部分と第2部分への分離は、例えば、ビットレート要件、音響品質要件、処理要件すなわちより多くの処理リソースがエンコーダーまたはデコーダーで使用可能かどうか、などに応じて、非常に柔軟な方法で行うことができる。好ましい実施形態では、第1部分と第2部分とへの分離は、コアエンコーダの機能性に基づいて行われる。特に、スペクトル帯域レプリケーション処理、インテリジェントギャップフィリング処理、ノイズフィリング処理など、特定の帯域にパラメトリック符号化操作を適用する高品質で低ビットレートのコアエンコーダの場合、空間パラメータに関する分離は、信号の非パラメトリック符号化部分が第1部分を形成し、信号のパラメトリック符号化部分が第2部分を形成するように行われる。したがって、通常は音声信号の低解像度符号化部分であるパラメトリック符号化第2部分に対して、空間パラメータのより正確な表現が得られ、その一方、より良い符号化に対して、すなわち高解像度符号化第1部分に対して、高品質のパラメータが得られる。その理由は、デコーダ側で第1部分の復号表現を用いて非常に高品質のパラメータを推定できるからである。
さらなる実施形態では、ビットレートをさらに低減するために、第2部分の空間パラメータを、エンコーダ内で、ある時間-周波数分解能で計算する。この時間-周波数分解能は、高いものでも低いものでもよい。高い時間-周波数分解能の場合、計算されたパラメータは、低時間-周波数分解能の空間パラメータを取得するために、特定の方法でグループ化される。これらの低時間-周波数解像度の空間パラメータは、それでいて、低解像度なだけで高品質の空間パラメータである。しかしながら、低解像度は、その時間長と周波数帯域の空間パラメータの数が減るため、伝送のためにはビットが節約される利点がある。ただし、空間データは時間および周波数に対してそれほど変化しないため、空間パラメータの数を減らしても、通常、それほど問題にはならない。したがって、第2部分に対する空間パラメータの低ビットレートでありながら良好な品質の表現が得られる。
第1部分に対する空間パラメータはデコーダ側で計算され、どこにも送信する必要がないため、解像度に関する妥協を行う必要はない。したがって、空間パラメータの高速かつ高周波数解像度の推定をデコーダ側で実行でき、この高解像度パラメトリックデータは、音響シーンの第1部分の良好な空間表現を提供するのに役立つ。したがって、第1部分に対する少なくとも2つの伝送された成分に基づいてデコーダ側で空間パラメータを計算する「欠点」は、高時間周波数分解能の空間パラメータを計算することにより、また、これらのパラメータを音響シーンの空間レンダリングで使用することにより、削減または取り除くことができる。これは、デコーダ側で実行されるどのような処理もエンコーダ/デコーダ間の伝送ビットレートに悪影響を及ぼすことはないので、ビットレートにどのような悪影響も及ぼすことはない。
本発明のさらなる実施形態は、第1部分について、少なくとも2つの成分が符号化および伝送され、少なくとも2つの成分に基づいて、パラメトリックデータ推定がデコーダ側で実行できる状況に依存する。しかし、一実施形態では、第2表現のために単一のトランスポートチャンネルのみを符号化することが好ましいので、音響シーンの第2部分は、実質的に低いビットレートで符号化できる。このトランスポートチャンネルすなわちダウンミックスチャンネルは、第1部分と比較して非常に低いビットレートで表現される。その理由は、第1部分では符号化のために2つ以上の成分が必要であり、デコーダ側の空間解析に十分なデータが必要であるのに対し、第2部分では単一のチャンネルまたは成分のみが符号化されるからである。
したがって、本発明は、エンコーダまたはデコーダ側で利用可能なビットレート、音響品質、および処理要件に関して、追加の柔軟性を提供する。
本発明の望ましい実施形態を添付図面を参照して以下に説明する。
音響シーンエンコーダの一実施形態を示すブロック図である。 音響シーンデコーダの一実施形態を示すブスック図である。 (a)は非符号化信号からのDirAC解析であり、(b)は符号化低次元信号からのDirAC解析である。 DirAC空間サウンド処理を音響符号器と組み合わせたエンコーダおよびデコーダの全体図を示す。 (a)は非符号化信号からのDirACを示し、(b)は時間-周波数領域のパラメータのグループ化およびパラメータの量子化を用いる非符号化信号からのDirACを示す。 従来技術のDirAC解析段を示す。 従来技術のDirAC解析段を示す。 異なる部分に対する例として、異なるオーバーラップ時間フレームを示す。 異なる部分に対する例として、異なる周波数帯域を示す。 音響シーンエンコーダの別の実施形態を示す。 音響シーンデコーダの一実施形態を示す。 音響シーンエンコーダの別の実施形態を示す。 音響シーンデコーダの別の実施形態を示す。 周波数領域コアエンコーダを有する音響シーンエンコーダの別の実施形態を示す。 時間領域コアエンコーダを有する音響シーンエンコーダの別の実施形態を示す。 周波数領域コアエンコーダを有する音響シーンエンコーダの別の実施形態を示す。 時間領域コアエンコーダを有する音響シーンエンコーダの別の実施形態を示す。 空間レンダラの実施形態を示す。
図1aは、少なくとも2つの成分信号を含む音響シーン110をエンコードするための音響シーンエンコーダを示す。音響シーンエンコーダは、少なくとも2つの成分信号をコア符号化するためのコアエンコーダ100を備える。具体的には、コアエンコーダ100は、少なくとも2つの成分信号の第1部分に対して第1の符号化表現310を生成し、少なくとも2つの成分信号の第2部分に対して第2の符号化表現320を生成するように構成される。音響シーンエンコーダは、音響シーンを解析して、第2部分の1または複数の空間パラメータまたは1または複数の空間パラメータセットを導出する空間解析器を備える。音響シーンエンコーダは、符号化音響シーン信号340を形成するための出力インタフェース300を備える。符号化音響シーン信号340は、少なくとも2つの成分信号の第1部分を表す第1の符号化表現310、第2エンコーダ表現320、および第2部分のためのパラメータ330を有する。空間解析器200は、元の音響シーン110を使用して少なくとも2つの成分信号の第1部分に空間解析を適用するように構成される。これとは別に、空間解析は、音響シーンの縮小次元表現に基づいて実行することもできる。例えば、音響シーン110が、例えば、マイクロホンアレイに配置されたいくつかのマイクロホンの記録を含む場合、空間解析200は、もちろん、このデータに基づいて実行される。しかしながら、コアエンコーダ100は、音響シーンの次元を、例えば、一次アンビソニックス表現またはそれより高次のアンビソニックス表現に低減するように構成される。基本バージョンでは、コアエンコーダ100は、次元を、例えば、無指向性コンポーネントと、Bフォーマット表現のX、Y、またはZなどの少なくとも1つの指向性コンポーネントとからなる、少なくとも2つのコンポーネントに低減するだろう。ただし、より高次の表現やA形式の表現などの他の表現も同様に利用できる。第1部分の第1のエンコーダ表現は、このとき、復号可能である少なくとも2つの異なる成分からなることになり、通常、各成分の符号化された音響信号からなる。
第2部分に対する第2のエンコーダ表現は、同数の成分からなるか、あるいは、第2部分のコアコーダによって符号化された単一の全方向性成分のみなど、より低い数を有することができる。コアエンコーダ100が元の音響シーン110の次元を低減する実装の場合、低減された次元の音響シーンは、オプションとして、元の音響シーンの代わりにライン120を介して空間解析器に転送することができる。
図1bは、符号化された音響シーン信号340を受信するための入力インターフェース400を備える音響シーンデコーダを示す。この符号化された音響シーン信号は、第1の符号化表現410、第2の符号化表現420および第2部分の1または複数の空間パラメータを含む。第2部分の符号化表現は、これも、符号化された単一の音響チャンネルであるか、または2以上の符号化された音響チャンネルを含むことができる。一方、第1部分の第1の符号化表現は、少なくとも2つの異なる符号化音響信号を含む。第1の符号化表現における音響信号、または利用可能な場合には第2の符号化表現における異なる符号化音響信号は、一緒に符号化されたステレオ信号などの一緒に符号化された信号であるか、あるいは、さらに好ましくは、個別に符号化されたモノラルの音響信号である。
第1の部分の第1の符号化表現410および第2の部分の第2の符号化表現420を含む符号化表現は、第1の符号化表現および第2の符号化表現を復号化して少なくとも2つの復号化表現を取得し音響シーンを表現する少なくとも2つの成分信号からなる復号表現を得るためのコアデコーダに入力される。復号表現は、810に示される第1部分の第1の復号表現および820に示される第2部分の第2の復号表現を含む。第1の復号表現は、少なくとも2つの成分信号の第1部分に相当する復号表現の部分を解析し少なくとも2つの成分信号の第1部分に対する1以上の空間パラメータ840を得るため、空間解析器600に転送される。音響シーンデコーダはまた、図1bの実施形態では、第1部分810の第1の復号表現および第2部分820の第2の復号表現を含む復号表現を空間的にレンダリングするための空間レンダラ800を備える。空間レンダラ800は、音響レンダリングの目的で、第1部分に対して空間解析器から導出されたパラメータ840と、第2部分に対して、パラメータ/メタデータデコーダ700を介して復号されたパラメータから導出されたパラメータ830と、を使用するように構成されている。符号化信号内のパラメータの表現が非符号化形式の場合、パラメータ/メタデータデコーダ700は不要であり、少なくとも2つの成分信号の第2部分の1以上の空間パラメータは、入力インタフェース400から直接、逆多重化または特定の処理操作の後で、データ830として空間レンダラ800に送られる。
図6aは、異なる典型的に重複する時間フレームF1からF4の概略図を示す。図1aのコアエンコーダ100は、少なくとも2つの成分信号からそのような後続の時間フレームを形成するように構成される。そのような状況では、第1の時間フレームを第1部分とし、第2の時間フレームを第2部分とすることができる。したがって、本発明の実施形態によれば、第1部分を第1の時間フレームとすることができ、第2部分を別の時間フレームとすることができ、第1および第2部分の間の切り替えは、経時的に実行することができる。図6aは重なり合う時間フレームを示しているが、重なり合わない時間フレームも同様に利用できる。図6aは、等しい長さを有する時間フレームを示すが、切り替えは、異なる長さを有する時間フレームを用いて行うこともできる。したがって、例えば、時間フレームF2が時間フレームF1よりも小さい場合、これにより、第1の時間フレームF1に対して第2の時間フレームF2の時間分解能が増加することになる。そして、増加した解像度を有する第2の時間フレームF2は、その成分に関して符号化される第1部分に対応することが好ましく、一方、第1の時間部分、すなわち低解像度データは、低解像度で符号化される第2部分に相当することになるが、この第2部分に対する空間パラメータは、全体の音響シーンがエンコーダで得られるので、どのような解像度で計算してもよい。
図6bは、少なくとも2つの成分信号のスペクトルが特定の数の帯域B1、B2、…、B6、…を有するものとして示されている代替の実装を示す。好ましくは、帯域は、知覚的に動機付けされたスペクトルの帯域分割を行うために、最低から最高の中心周波数に増加する異なる帯域幅を有する帯域に分離される。少なくとも2つの成分信号の第1部分は、例えば、最初の4つの帯域からなることができ、例えば、第2の部分は、帯域B5および帯域B6からなることができる。これは、コアエンコーダがスペクトル帯域レプリケーションを実行し、非パラメトリックに符号化された低周波数部分とパラメトリックに符号化された高周波数部分の間のクロスオーバ周波数が帯域B4と帯域B5の境界になるような状況と一致する。
これとは別に、インテリジェントギャップフィリング(IGF)またはノイズフィリング(NF)の場合、帯域は信号解析に合わせて任意に選択されるため、第1部分は、例えば帯域B1、B2、B4、B6からなり、第2部分は、B3、B5、およびおそらく別のより高い周波数帯域となる。したがって、図6bに示されているように、帯域が最低から最高の周波数に増加する帯域幅を持つ典型的なスケールファクタ帯域であるかどうか、あるいは帯域が同じサイズの帯域であるかどうか、には関係なく、音響信号の帯域への非常に柔軟な分離を実行できます。第1部分と第2部分との間の境界は、コアエンコーダで通常使用されるスケールファクタ帯域と必ずしも一致する必要はないが、第1部分と第2部分の間の境界と、スケールファクタ帯域と隣接するスケールファクタ帯域との境界とは、一致することが望ましい。
図7aは、音響シーンエンコーダの好ましい実施を示す。特に、音響シーンは、好ましくは図1aのコアエンコーダ100の一部である信号分離器140に入力される。図1aのコアエンコーダ100は、両方の部分、すなわち、音響シーンの第1部分と音響シーンの第2部分のための次元削減器150aおよび150bを備える。次元低減器150aの出力には、第1部分のために音響エンコーダ160aで符号化される少なくとも2つの成分信号が存在する。音響シーンの第2部分の次元削減器150bは、次元削減器150aと同じ構成を含むことができる。しかしながら、代替として、次元低減器150bによって得られる低減された次元は、少なくとも1つのトランスポート/成分信号の第2の符号化表現320を得るために、音響エンコーダ160bによって次に符号化される単一のトランスポートチャンネルとすることもできる。
第1の符号化表現に対する音響エンコーダ160aは、波形を維持するか、非パラメトリック、または高時間または高周波数解像度のエンコーダを含むことができる。一方、音響エンコーダ160bは、SBRエンコーダ、IGFエンコーダ、ノイズ充填エンコーダ、あるいは他の低時間または周波数解像度のものなどのパラメトリックエンコーダである。したがって、音響エンコーダ160bは、通常は、音響エンコーダ160aと比較して低い品質の出力表現をもたらす。この「欠点」は、元の音声シーン、あるいは、次元削減音声シーンが少なくとも2つの成分信号を依然として含む場合には次元削減音声シーン、を空間データ解析器210を介して空間解析を実行することによって対処される。空間データ解析器210によって得られた空間データは、符号化された低解像度空間データを出力するメタデータエンコーダ220に転送される。ブロック210、220は共に、好ましくは図1aの空間解析器ブロック200に内包される。
好ましくは、空間データ解析器が、高周波解像度または高時間解像度などの高解像度で空間データ解析を実行し、符号化されたメタデータに必要なビットレートを妥当な範囲に保つために、高解像度空間データをグループ化し、符号化された低解像度の空間データを得るようにメタデータエンコーダによってエントロピー符号化することが好ましい。例えば、空間データ解析が、例えばフレームごとに8個のタイムスロットとタイムスロットごとに10個の帯域に対して実行される場合、空間データをフレームごとに1つの空間パラメータに、そして例えばパラメータごとに5個の帯域にグループ化できる。
一方では方向データを計算し、他方では拡散性データを計算することが好ましい。このとき、メタデータエンコーダ220は、方向性データおよび拡散性データについて、異なる時間/周波数解像度で符号化データを出力するように構成される。通常、指向性データは、拡散性データよりも高い解像度を必要とする。異なる解像度でパラメトリックデータを計算するための好ましい方法は、両方のパラメトリック種類について高解像度で、通常は同じ解像度で、空間解析を実行し、次に、異なるパラメータ種に対して異なる方法で異なるパラメトリック情報を用いて時間および/または周波数でグループ化を実行し、例えば方向性データに対して中程度の時間および/または周波数解像度を有し、拡散度データに対して低解像度を有する符号化低解像度空間データ出力330を有するようにする。
図7bは、対応する音響シーンデコーダのデコーダ側の実装を示す。
図1bのコアデコーダ500は、図7bの実施形態では、第1の音響デコーダインスタンス510aおよび第2の音響デコーダインスタンス510bを有する。好ましくは、第1の音響デコーダインスタンス510aは、非パラメトリックまたは波形保存または高解像度(時間および/または周波数において)エンコーダであり、出力に、少なくとも2つの成分信号の復号第1部分を生成する。このデータ810は、一方で、図1bの空間レンダラ800に送られ、さらに、空間解析器600に入力される。好ましくは、空間解析器600は、好ましくは第1部分に対して高解像度空間パラメータを計算する高解像度空間解析器である。通常、第1部分の空間パラメータの解像度は、パラメータ/メタデータデコーダ700に入力される符号化されたパラメータに関連付けられている解像度よりも高い。しかしながら、ブロック700により出力されるエントロピー復号された低時間または周波数解像度の空間パラメータは、解像度向上710のためにパラメータデグルーパに入力される。そのようなパラメータのデグループ(グループ化解除)は、送信されたパラメータを特定の時間-周波数タイルにコピーすることによって実行することができ、グループ化解除は、図7aのエンコーダ側メタデータエンコーダ220で実行された対応するグループ化に従って実行される。当然、グループ化解除とともに、必要に応じて、さらに処理または平滑化操作を実行できる。
このとき、ブロック710の結果は、第2部分に対して復号された望ましくは高解像度パラメータの集まりであり、通常は、第1部分に対するパラメータ840と同じ解像度を有する。また、第2の部分の符号化表現は、音響デコーダ510bによって復号され、通常少なくとも1つの、または少なくとも2つの成分を有する信号の復号された第2部分820を取得する。
図8aは、図3に関して論じられた機能に依存するエンコーダの好ましい実装を示す。特に、マルチチャンネル入力データ、または一次アンビソニックスまたは高次アンビソニックス入力データ、またはオブジェクトデータは、Bフォーマット変換器に入力される。Bフォーマット変換器は、例えば、通常は全方向性音響信号などの4つのBフォーマットコンポーネントと、X、Y、Zなどの3つの方向性音響信号を生成するために、個々の入力データを変換および結合する。
あるいは、フォーマット変換器またはコアエンコーダに入力される信号は、第1部分に配置された無指向性マイクロホンによって捕捉された信号、および第1部分とは異なる第2部分に配置された無指向性マイクロホンによって捕捉された別の信号でもよい。さらには、音響シーンは、第1の成分信号として、第1の方向に向けられた指向性マイクロホンによって捕捉された信号と、第2の成分として、第1の方向とは異なる第2の方向に指向された別の指向性マイクロホンによって捕捉された少なくとも1つの信号とを含むこともできる。これらの「指向性マイクホン」は、必ずしも実際のマイクロホンである必要はなく、仮想マイクロホンでも良い。
ブロック900への音響入力、またはブロック900による出力、または一般に音響シーンとして使用される音響としては、Aフォーマットの成分信号、B形フォーマットの成分信号、1次アンビソニックスの成分信号、高次アンビソニックスの成分信号、または少なくとも2つのマイクロホンカプセルを有するマイクロホンアレイにより捕えられた成分信号または仮想マイク処理から計算された成分信号を用いることができる。
図1aの出力インターフェース300は、符号化音響シーン信号への第2部分について、空間解析器によって生成された1以上の空間パラメータと同じパラメータ種からのどのような空間パラメータも含まないように構成される。
したがって、第2部分のパラメータ330が到着方向データおよび拡散性データである場合、第1部分の第1の符号化表現は、到着方向データおよび拡散性データを含まないが、もちろん、他の任意のパラメータを含むことができ、それらは、スケール係数、LPC係数など、コアエンコーダによって計算される。
さらに、信号分離器140によって実行される帯域分離は、異なる部分が異なる帯域である場合、第2部分の開始帯域が帯域幅拡張開始帯域よりも低くなるように実装することができ、さらに、コアノイズ充填は、必ずしも一定のクロスオーバー帯域を適用する必要はないが、周波数が増加するにつれて、コアスペクトルのより多くの部分に徐々に使用することができる。
さらに、時間フレームの第2周波数サブバンドに対するパラメトリックまたは大規模パラメトリック(largely parametric)処理は、第2周波数サブバンドの振幅関連パラメータの計算と、第2周波数サブバンドの個々のスペクトル線の代わりに、この振幅関連パラメータの量子化およびエントロピー符号化を含む。第2部分の低解像度表現を形成するそのような振幅関連パラメータは、例えば、各スケールファクタ帯域に対して、例えば、1つのスケールファクタまたはエネルギ値のみを有するスペクトル包絡線表現によって与えられ、その一方で、高解像度の第1部分は、個々のMDCTまたはFFTまたは一般的な個々のスペクトル線に依存する。
したがって、少なくとも2つの成分信号の第1部分は、各成分信号の特定の周波数帯域によって与えられ、各成分信号の特定の周波数帯域は、第1部分の符号化表現を取得するために、いくつかのスペクトル線を用いて符号化される。しかしながら、第2部分については、第2部分の個々のスペクトル線の合計、第2部分のエネルギを表す2乗スペクトル線の和、またはスペクトル部分に対するラウドネス測定値を表すスペクトル線の3乗の和は、第2部分のパラメトリック符号化表現に対しても使用することができる。
再び図8aを参照すると、個々のコアエンコーダ・ブランチ160a、160bを含むコアエンコーダ160は、第2部分に対するビームフォーミング/信号選択手順を含むことができる。したがって、図8bの160a、160bで示されるコアエンコーダは、一方で、4つすべてのBフォーマット成分の符号化第1部分と、単一のトランスポートチャンネルの符号化第2部分と、第2部分に依存してDirAC解析210により生成された第2部分に対する空間メタデータとを出力し、後続の空間メタデータエンコーダ220に接続される。
デコーダ側では、符号化された空間メタデータが空間メタデータデコーダ700に入力され、830に示される第2部分のパラメータが生成される。通常、要素で構成されるEVSベースのコアデコーダとして実装される好ましい実施形態であるコアデコーダ510a、510bは、両方の部分からなる復号された表現を出力するが、両方の部分はまだ分離されていない。復号表現は周波数解析ブロック860に入力され、周波数解析器860は、第1部分の成分信号を生成し、それをDirAC解析器600に転送して、第1部分に対するパラメータ840を生成する。第1および第2部分のトランスポートチャンネル/成分信号は、周波数解析器860からDirACシンセサイザ800に転送される。DirACシンセサイザは、この実施形態では、どのような知識ももたず、実際にどのような特定の知識も必要としないので、通常通り動作する。これは、第1部分および第2部分に対するパラメータが、エンコーダ側で生成されたかデコーダ側で生成されたかには関係ない。その代わり、DirACシンセサイザ800とDirACシンセサイザの両方で、862で示される音響シーンを表す少なくとも2つの成分信号の復号表現の周波数表現と、双方の部分に対するパラメータ、ラウドスピーカ出力、一次アンビソニックス(FOA)、高次アンビソニックス(HOA)、または両耳出力とに基づいて、「同じ」パラメータを生成することができる。
図9aは、音響シーンエンコーダの別の好ましい実施形態を示す。ここで、図1aのコアエンコーダ100は、周波数領域エンコーダとして実装されている。この実装では、コアエンコーダによって符号化される信号は、好ましくは時間スペクトル変換または分解を典型的には重複する時間フレームに適用する解析フィルタバンク164に入力される。コアエンコーダは、波形維持エンコーダプロセッサ160aとパラメトリックエンコーダプロセッサ160bを備える。第1部分および第2部分へのスペクトル部分の分配は、モードコントローラ166によって制御される。モードコントローラ166は、信号解析、ビットレート制御に依存するか、または固定設定を適用することができる。通常、音響シーンエンコーダは、異なるビットレートで動作するように構成でき、その場合、第1部分と第2部分の間の所定の境界周波数は選択したビットレートに依存し、所定の境界周波数は、低ビットレートの場合は低く、高ビットレートの場合は高くする。
これとは別に、モードコントローラは、入力信号のスペクトルを解析するインテリジェントギャップフィリングから知られる調性マスク処理機能を備え、高スペクトル解像度で符号化する必要のある帯域を決定し、それが最終的に符号化第1部分となる。また、パラメトリックな方法で符号化できる帯域を決定し、それが最終的に復号第2部分となる。モードコントローラ166は、エンコーダ側の空間解析器200も制御し、好ましくは空間解析器の帯域分離器230または空間解析器のパラメータ分離器240を制御するように構成される。これにより、最終的に、第1部分ではなく第2部分の空間パラメータのみが生成され、符号化シーン信号に出力される。
特に、空間解析器200が音響シーン信号を解析フィルタバンクに入力される前またはフィルタバンクに入力された後のいずれかで直接に受信する場合、空間解析器200は、第1部分および第2部分を全体にわたって解析し、続いてパラメータ分離器240は、符号化シーン信号に出力するため、第2部分に対するパラメータを選択する。これとは別に、空間解析器200が帯域分離器から入力データを受信し、帯域分離器230が既に第2部分のみを送出しているとき、パラメータ分離器240はもはや何も必要としない。その理由は、空間解析器200が、とにかく第2部分のみを受信し、第2部分に対する空間データを出力するだけだからである。
したがって、第2部分の選択は、空間解析の前または後に実行することができ、好ましくはモードコントローラ166によって制御されるか、または固定的に実装されることもできる。空間解析器200は、エンコーダの解析フィルタバンクに頼るか、あるいは、図9aには示されていないが、例えば、図5aの1000にてDirAC解析段の実装として示されるような自身の個別のフィルタバンクを使用する。
図9bは、図9aの周波数領域エンコーダとは対照的に、時間領域エンコーダを示す。解析フィルタバンク164の代わりに帯域分離器168が設けられる。この帯域分離器168は、図9aのモードコントローラ166(図9bには図示せず)によって制御されるか、または固定式である。制御される場合、ビットレート、信号解析、またはこの目的に役立つその他の手順に基づいて、制御を実行できる。帯域分離器168に入力される典型的にはM個の成分は、一方では低帯域時間領域エンコーダ160aによって、そして他方では時間領域帯域幅拡張パラメータ計算器160bによって、処理される。好ましくは、低帯域時間領域エンコーダ160aは、M個の個別成分が符号化された形式の第1の符号化表現を出力する。これに対して、時間領域帯域幅拡張パラメータ計算器160bによって生成された第2の符号化表現は、N個のコンポーネント/トランスポート信号のみを含み、NはMよりも小さく、Nは1以上である。
空間解析器200がコアエンコーダの帯域分離器168に依存するかどうかに応じて、別個の帯域分離器230は必要とされない。しかしながら、空間解析器200が帯域分離器230に依存している場合、図9bのブロック168とブロック200との間の接続は、必要ではない。帯域分離器168または230のいずれも空間解析器200の入力に接続されない場合、空間解析器は全帯域解析を実行し、帯域分離器240は、出力に転送される第2部分の空間パラメータのみを分離し、出力インタフェースに送られるか、または符号化音響シーンとなる。
したがって、図9aは、エントロピー符号化を量子化するための波形保存エンコーダプロセッサ160aまたはスペクトルエンコーダを示しているが、図9bの対応するブロック160aは、EVSエンコーダ、ACELPエンコーダ、AMRエンコーダなどの任意の時間領域エンコーダ、または同様のエンコーダである。ブロック160bが周波数領域パラメトリックエンコーダまたは一般的なパラメトリックエンコーダを示しているのに対し、図9bのブロック160bは、基本的に、場合によってはブロック160と同じパラメータまたは異なるパラメータを計算できる時間領域帯域幅拡張パラメータ計算機である。
図10aは、周波数領域デコーダを示す。この周波数領域デコーダは、典型的には、図9aの周波数領域エンコーダと対応する。符号化第1部分を受信するスペクトルデコーダは、160aに示されるように、エントロピーデコーダ、逆量子化器、および例えばAAC符号化または他の任意のスペクトル領域符号化で知られる他の任意の要素を有する。第2部分の第2の符号化表現として帯域ごとのエネルギなどのパラメトリックデータを受け取るパラメトリックデコーダ160bは、通常、SBRデコーダ、IGFデコーダ、ノイズフィリングデコーダまたは他のパラメトリックデコーダとして動作する。第1部分のスペクトル値と第2部分のスペクトル値は、符号化表現を得るために、合成フィルターバンク169に入力される。得られた符号化表現は、通常は、空間レンダリングの目的で空間レンダラに転送される。
第1部分は、空間解析器600に直接転送されてもよく、第1部分を帯域分離器630を介して合成フィルタバンク169の出力における復号表現から導出することもできる。状況により、パラメータ分離器640は有っても無くてもよい。空間解析器600が第1部分のみを受け取る場合、帯域分離器630およびパラメータ分離器640は必要とされない。空間解析器600が復号表現を受け取り、帯域分離器が無い場合には、パラメータ分離器640が必要である。復号表現が帯域分離器630に入力される場合、空間解析器600は第1部分の空間パラメータのみを出力するので、空間解析器にとってパラメータ分離器640を有する必要はない。
図10bは、図9bの時間領域エンコーダと一対応する時間領域デコーダを示す。特に、第1の符号化表現410は低帯域時間領域デコーダ160aに入力され、復号された第1部分は結合器167に入力される。帯域幅拡張パラメータ420は、第2部分を出力する時間領域帯域幅拡張プロセッサに入力される。第2部分も結合器167に入力される。実装によっては、結合器を実装して、第1部分と第2部分がスペクトル値の場合にはスペクトル値を結合するか、または、第1部分と第2部分が既に時間領域標本として得られている場合にはそれらの時間領域標本を結合する。結合器167の出力は、図10aに関して前述したものと同様に、帯域分離器630の有無にかかわらず、またはパラメータ分離器640の有無にかかわらず、どの場合でも、空間解析器600によって処理することのできる復号表現である。
図11は、空間レンダラの好ましい実装を示す。ただし、DirACパラメータまたはDirACパラメータ以外のパラメータに依存するもの、またはHOA表現のような直接的なラウドスピーカ表現とは異なるレンダリング信号の表現を生成するもの、も同様に実装できる。通常、DirACシンセサイザ800へのデータ862入力は、図11の左上隅に示されているように、第1部分と第2部分に対するBフォーマットなどのいくつかの成分で構成される。また、第2部分が複数の成分で得られるのではなく、単一成分だけの場合もある。そのような状況を、図11の左側下部に示す。特に、例えば第1部分と第2部分がすべての成分を持つ場合、すなわち、図8bの信号862がBフォーマットのすべての成分を含む場合、すべての成分の全スペクトルが利用可能であり、時間-周波数分解により、個々の時間-周波数タイルごとに処理を実行することができる。この処理は、ラウドスピーカ配置の各ラウドスピーカに対して、復号表現からラウドスピーカ成分を計算するために、仮想マイクロホンプロセッサ870aによって行われる。
これに代えて、第2部分が単一の成分でのみ利用可能な場合、第1部分の時間-周波数タイルは仮想マイクロホンプロセッサ870aに入力され、その一方、第2部分の単一またはより少数成分に対する時間/周波数部分は、プロセッサ870bに入力される構成とすることもできる。プロセッサ870bは、例えば、コピー動作を実行するだけである。すなわち、単一のトランスポートチャンネルを、各ラウドスピーカ信号用の出力信号にコピーする。したがって、この代替構成の仮想マイクロホンプロセッサ870aの処理は、単純なコピー操作によって置き換えられる。
次に、第1の実施形態におけるブロック870aすなわち第1部分に対する870aおよび第2部分に対するブロック870bの出力は、1以上の空間パラメータを使用して出力成分信号を修正するため、利得プロセッサ872に入力される。このデータはまた、1以上の空間パラメータを使用して非相関化された出力成分信号を生成するために、重み付け器/非相関化プロセッサ874に入力される。ブロック872の出力およびブロック874の出力は、各成分に対して動作する結合器876内で結合され、これにより、ブロック876の出力には、各ラウドスピーカ信号の周波数領域表現が得られる。
次に、合成フィルタバンク878により、すべての周波数領域ラウドスピーカ信号が時間領域表現に変換され、生成された時間領域ラウドスピーカ信号をデジタルアナログ変換して、定義されたラウドスピーカ位置に配置された対応するラウドスピーカを駆動するために使用することができる。
通常、利得プロセッサ872は、空間パラメータ、そして好ましくは到着データの方向などの方向パラメータ、そしてオプションとして拡散性パラメータ、に基づいて動作する。さらに、重み付け/非相関化プロセッサは、空間パラメータに基づいて動作し、また、好ましくは拡散性パラメータに基づいて動作する。
したがって、実装では、利得プロセッサ872は、1015で示される図5bの非拡散ストリームを生成し、重み付け/非相関化プロセッサ874は、例えば図5bの上部分岐1014によって示されるような拡散ストリームを生成する。しかしながら、異なる手順、異なるパラメータ、および直接信号と拡散信号を生成するための異なる方法に依存する他の実装も同様に可能である。
技術水準に対する好ましい実施形態の例示的な利益および利点は、以下のとおりである。
本発明の実施形態は、デコーダ側で推定された空間パラメータを有するように選択された信号の部分に対して、信号全体に対してエンコーダ側で推定および符号化されたパラメータを使用するシステムよりも、より良い時間-周波数分解能を提供する。
本発明の実施形態は、エンコーダでのパラメータの解析、符号化およびデコーダへのパラメータの伝送により再構成された信号部分に対して、空間パラメータが復号低次元音響信号を使用してデコーダで推定されるシステムよりも、より良い空間パラメータ値を提供する。
本発明の実施形態は、信号全体のコード化パラメータを使用するシステムまたは信号全体のデコーダ側推定パラメータを使用するシステムのいずれよりも、時間-周波数分解能、伝送速度、およびパラメータ精度の間のより柔軟なトレードオフを可能にする。
本発明の実施形態は、主にパラメトリック符号化ツールを使用して符号化された信号部分に対して、エンコーダ側の推定と信号部分の一部またはすべての空間パラメータの符号化を選択すること、およびそれらの部分に対して一部またはすべての空間パラメータを符号化することにより、より良好なパラメータ精度を提供し、主として符号化される信号部分に対して、波形維持符号化ツールを使用し、それらの信号部分に対する空間パラメータの推定をデコーダ側に委ねることで、より良好な時間-周波数分解能を提供する。
V. Pulkki, M-V Laitinen, J Vilkamo, J Ahonen, T Lokki and T Pihlajamaeki, "Directional audio coding - perception-based reproduction of spatial sound", International Workshop on the Principles and Application on Spatial Hearing, Nov. 2009, Zao; Miyagi, Japan. Ville Pulkki. "Virtual source positioning using vector base amplitude panning". J. Audio Eng. Soc., 45(6):456{466, June 1997.
欧州特許出願第17202393.9号,“EFFICIENT CODING SCHEMES OF DIRAC METADATA”. 欧州特許出願第17194816.9号“Apparatus, method and computer program for encoding, decoding, scene processing and other procedures related to DirAC based spatial audio coding”
本発明の符号化されたオーディオ信号は、デジタル記憶媒体または非一時的記憶媒体に記憶することができ、あるいは、無線伝送媒体またはインターネットなどの有線伝送媒体のような伝送媒体上で伝送することができる。
いくつかの側面を装置として説明したが、これらの側面は、対応する方法の説明をも表していることは明らかである。その場合、ブロックまたは装置が、方法ステップまたは方法ステップの特徴に対応する。同様に、方法ステップの文脈で説明された側面も、対応する装置の対応するブロックまたは項目または特徴の記述を表している。
特定の実装要件に応じて、本発明の実施形態は、ハードウェアまたはソフトウェアで実施することができる。この実施は、デジタル記憶媒体、例えばフレキシブルディスク、DVD、CD、ROM、PROM、EPROM、EEPROMまたはフラッシュメモリを使用して実行することができ、その上に記憶された電子的に読み取り可能な制御信号を有し、それぞれの方法が実行されるようにプログラム可能なコンピュータシステムと協働するまたは協働することができる。
本発明によるいくつかの実施形態は、本明細書に記載された方法が実行されるように、プログラマブルコンピュータシステムと協働することができる電子的に読み取り可能な制御信号を有するデータ担体を含む。
一般に、本発明の実施形態は、コンピュータプログラム製品がコンピュータ上で動作するときに方法の1つを実行するように動作するプログラムコードを有するコンピュータプログラム製品として実施することができる。プログラムコードは、例えば、機械可読担体に記憶することができる。
他の実施形態は、本明細書に記載された方法のうちの1つを実行するためのコンピュータプログラムを含み、機械可読担体または非一時的記憶媒体に記憶される。
言い換えると、本発明の方法の実施形態は、コンピュータプログラムがコンピュータ上で動作するときに、本明細書に記載された方法のを実行するためのプログラムコードを有するコンピュータプログラムである。
本発明の方法のさらなる実施形態は、本明細書に記載の方法を実行するためのコンピュータプログラムを記録したデータ担体(すなわち、デジタル記憶媒体またはコンピュータ可読媒体)である。
本発明の方法のさらなる実施形態は、本明細書で説明される方法を実行するためのコンピュータプログラムを表すデータストリームまたは信号のシーケンスである。データストリームまたは信号のシーケンスは、データ通信接続、例えばインターネット、を介して転送されるように構成することができる。
さらなる実施形態は、本明細書で説明される方法のうちの1つを実行するように構成されまたは適合された、例えば、コンピュータ、またはプログラマブルロジックデバイスなどの処理手段を含む。
さらなる実施形態は、本明細書に記載された方法のうちの1つを実行するためのコンピュータプログラムがインストールされたコンピュータを含む。
いくつかの実施形態では、プログラマブルロジックデバイス(例えば、フィールドプログラマブルゲートアレイ)を使用して、本明細書に記載の方法の機能の一部または全部を実行することができる。いくつかの実施形態では、フィールドプログラマブルゲートアレイは、本明細書で説明される方法のを実行するために、マイクロプロセッサと協働することができる。一般に、これらの方法は、任意のハードウェア装置によって実行されることが好ましい。
上記の実施形態は、本発明の原理を説明するためのものに過ぎない。本明細書に記載された構成および細部の変更および変形は、当業者には明らかであることが理解されよう。したがって、本発明は、特許請求の範囲によってのみ限定されるものであり、本明細書の実施形態の説明および説明によって提示された特定の詳細によっては限定されるものではない。

Claims (37)

  1. 少なくとも2成分の信号を含む音響シーン(110)を符号化する音響シーンエンコーダであり、
    前記少なくとも2成分の信号をコア符号化して、前記少なくとも2成分の信号の第1の部分に対して第1の符号化表現(310)を生成し、前記少なくとも2成分の信号の第2の部分に対して第2の符号化表現(320)を生成するコアエンコーダ(160)を備え、
    前記コアエンコーダ(160)は、前記少なくとも2成分の信号からひとつの時間フレームを形成する構成であり、ここで、前記時間フレームの第1の周波数サブバンドが前記少なくとも2成分の信号の前記第1の部分であり、前記時間フレームの第2の周波数サブバンドが前記少なくとも2成分の信号の前記第2の部分であり、前記第1の周波数サブバンドが前記第2の周波数サブバンドから所定の境界周波数により分離され、
    前記コアエンコーダ(160)はまた、M成分信号を含む前記第1の周波数サブバンドに対して前記第1の符号化表現(310)を生成し、N成分信号を含む前記第2の周波数サブバンドに対して前記第2の符号化表現(320)を生成するように構成され、ここで、MはNより大きく、Nは1以上であり、
    前記少なくとも2成分の信号を含む前記音響シーン(110)を解析して、前記第2の周波数サブバンドに対する1以上の空間パラメータ(330)または1以上の空間パラメータセットを導出する空間解析器(200)を備え、
    前記M成分信号を含む前記第1の周波数サブバンドに対する前記第1の符号化表現(310)、N成分信号を含む前記第2の周波数サブバンドに対する前記第2の符号化表現(320)、および前記第2の周波数サブバンドに対する前記1以上の空間パラメータ(330)または前記1以上の空間パラメータセット、を含む第2の符号化音響シーン信号(340)を形成する出力インタフェース(300)を備える
    音響シーンエンコーダ。
  2. 前記コアエンコーダ(160)は、前記第1の符号化表現(310)を第1の周波数分解能で生成し、前記第2の符号化表現(320)を前記第1の周波数分解能より低い第2の周波数分解能で生成する構成であり、または、
    前記時間フレームの前記第1の周波数サブバンドと前記時間フレームの第2の周波数サブバンドとの間の境界周波数が、スケールファクタ帯域と隣接スケールファクタ帯域との境界と一致する、または前記スケールファクタ帯域と前記隣接スケールファクタ帯域との境界とは一致せず、ここで、前記スケールファクタ帯域と前記隣接スケールファクタ帯域とは前記コアエンコーダ(160)で使用される
    請求項1に記載の音響シーンエンコーダ。
  3. 前記音響シーン(110)は、第1成分信号として全方向性オーディオ信号を含み、第2成分信号として少なくとも1つの指向性オーディオ信号とを含む、または、
    前記音響シーン(110)は、第1成分信号として第1の位置に配置された全方向性マイクロフォンによって捕捉された信号を含み、第2成分信号として第1の位置とは異なる第2の位置に位置する全方向性マイクロフォンによって捕捉された少なくとも1つの信号を含む、または、
    前記音響シーン(110)は、第1成分信号として第1の方向に向けられた指向性マイクロフォンによって捕捉された少なくとも1つの信号を含み、第2成分信号として前記第1の方向と異なる第2の方向に向けられた指向性マイクロフォンによって捕捉された少なくとも1つの信号を含む
    請求項1または2に記載の音響シーンエンコーダ。
  4. 前記音響シーン(110)は、Aフォーマット成分信号、Bフォーマット成分信号、1次アンビソニックス成分信号、高次アンビソニックス成分信号、または少なくとも2つのマイクロホンカプセルを有するマイクロホンアレイにより捕えられた、または以前に記録または合成された音響シーンから計算された成分の信号を含む、
    請求項1から3のいずれか1項に記載の音響シーンエンコーダ。
  5. 前記出力インタフェース(300)は、前記第2の周波数サブバンドに対して前記空間解析器(200)により生成された前記1以上の空間パラメータ(330)と同じパラメータ種からの空間パラメータを、前記符号化音響シーン信号(340)に含まないように構成され、前記第2の周波数サブバンドのみが前記パラメータ種を有し、前記パラメータ種の任意のパラメータが、前記符号化音響シーン信号(340)内の前記第1の周波数サブバンドに含まれないように構成された
    請求項1からの4いずれか1項に記載の音響シーンエンコーダ。
  6. 前記コアエンコーダ(160)は、前記第2の周波数サブバンドに対してパラメトリックな符号化動作(160b)を実行し、前記第1の周波数サブバンドに対して波形維持または主に波形を維持する符号化動作(160a)を実行するように構成され、または、
    前記第2の周波数サブバンドの開始帯域は帯域拡張開始帯域よりも低く、前記コアエンコーダ(160)によるコアノイズ充填動作は、固定交差帯域を持たず、周波数が増加するにつれてコアスペクトルのより多くの部分に対して徐々に使用される
    請求項1から5のいずれか1項に記載の音響シーンエンコーダ。
  7. 前記コアエンコーダ(160)は、前記時間フレームの前記第2の周波数サブバンドに対してパラメトリック処理(160b)を実行するように構成され、前記パラメトリック処理(160b)は、前記第2の周波数サブバンドに対して振幅関連パラメータを計算し、前記第2の周波数サブバンド内の個々のスペクトル線ではなく前記振幅関連パラメータを量子化およびエントロピー符号化し、前記コアエンコーダ(160)はさらに、前記時間フレームの前記第1の周波数サブバンドにおける個々のスペクトル線を量子化およびエントロピー符号化(160a)するように構成され、または
    前記コアエンコーダ(160)は、前記少なくとも2成分の信号の前記第2の周波数サブバンドに対応する前記時間フレームの高周波数サブバンドに対してパラメトリック処理(160b)を実行するように構成され、前記パラメトリック処理は、前記高周波数サブバンドの振幅関連パラメータを計算し、前記高周波数サブバンドにおける時間領域信号の代わりに前記振幅関連パラメータを量子化およびエントロピー符号化することを含み、前記コアエンコーダ(160)は、LPC符号化、LPC/TCX符号化、またはEVS符号化またはAMR広帯域符号化またはAMR広帯域プラス符号化のような時間領域符号化動作によって、前記少なくとも2成分の信号の前記第1の周波数サブバンドに対応する前記時間フレームの低周波数サブバンドにおける時間領域音響信号を量子化およびエントロピー符号化(160b)するように構成された、
    請求項1から6のいずれか1項に記載の音響シーンエンコーダ。
  8. 前記パラメトリック処理(160b)は、スペクトル帯域複製(SBR)処理と、インテリジェントギャップ充填(IGF)処理またはノイズ充填処理と、を含む請求項7に記載の音響シーンエンコーダ。
  9. 前記コアエンコーダ(160)は、前記音響シーン(110)の次元を縮小して低次元音響シーンを得るための次元削減器(150a)を含み、前記コアエンコーダ(160)は、前記低次元音響シーンから前記少なくとも2成分の信号の前記第1の周波数サブバンドについて、前記第1の符号化表現(310)を計算するように構成され、前記空間解析器(200)は、前記低次元音響シーンの次元より高い次元を有する前記音響シーン(110)から空間パラメータ(330)を導出するように構成された、
    請求項1から8のいずれか1項に記載の音響シーンエンコーダ。
  10. 異なるビットレートで動作するように構成され、前記第1の周波数サブバンドと前記第2の周波数サブバンドとの間の前記所定の境界周波数が選択されたビットレートに依存し、前記所定の境界周波数が、より低いビットレートに対して低く、または所定の境界がより高いビットレートに対して高い、請求項1から9のいずれか1項に記載の音響シーンエンコーダ。
  11. 前記空間解析器(200)は、前記第2の周波数サブバンドに対して、1以上の空間パラメータ(330)として、方向性パラメータと拡散度パラメータのような非方向性パラメータとの少なくとも1つを計算するように構成された
    請求項1から10のいずれか1項に記載の音響シーンエンコーダ。
  12. 前記コアエンコーダ(160)は、
    前記少なくとも2成分の信号の前記時間フレームを含む複数の時間フレームのシーケンスを、前記少なくとも2成分の信号に対するスペトルフレームのシーケンスに変換する時間-周波数変換器(164)と、
    前記第1の周波数サブバンドに対応するスペクトルフレームの第1のサブバンド内の前記スペクトルフレームのシーケンスのフレームのスペクトル値を量子化およびエントロピー符号化するスペクトルエンコーダ(160a)と、
    前記第2の周波数サブバンドに対応する前記スペクトルフレームの第2のサブバンド内の前記スペクトルフレームのスペクトル値をパラメトリックに符号化するパラメトリックエンコーダ(160b)と
    を含み、
    または
    前記コアエンコーダ(160)は、前記時間フレームの低帯域部分であって前記第1の周波数サブバンドに対応する低帯域部分の時間領域または混合された時間領域と周波数領域の符号化動作を実行する時間領域または混合時間領域周波数領域コアエンコーダ(160)を含み、または、
    前記空間解析器(200)は、前記第2の周波数サブバンドを分析帯域に細分するように構成され、ひとつの分析帯域の帯域幅は、前記第1の周波数サブバンド内で前記スペクトルエンコーダによって処理される2つの隣接するスペクトル値に関連する帯域幅以上であるか、または前記第1の周波数サブバンドを表す低帯域部分の帯域幅よりも低く、前記空間解析器(200)は、前記第2の周波数サブバンドの各解析帯域について方向性パラメータおよび拡散度パラメータのうちの少なくとも1つを計算するように構成され、または、
    前記コアエンコーダ(160)および前記空間解析器(200)は、共通のフィルタバンク(164)または異なる特性を有する異なるフィルタバンク(164、1000)を使用するように構成された
    請求項1から11のいずれか1項に記載の音響シーンエンコーダ。
  13. 前記空間解析器(200)は、前記方向性パラメータを計算するため、前記拡散度パラメータを計算するために使用される解析帯域よりも小さい解析帯域を使用するように構成された、請求項12に記載の音響シーンエンコーダ。
  14. 前記コアエンコーダ(160)は、前記少なくとも2成分の信号に対して符号化マルチチャネル信号を生成するマルチチャネルエンコーダを備え、または、
    前記コアエンコーダ(160)は、前記少なくとも2成分の信号の成分信号の数が3以上である場合に、2以上の符号化マルチチャネル信号を生成するマルチチャネルエンコーダを備え、または、
    前記出力インタフェース(300)は、前記第1の周波数サブバンドに対するいずれの空間パラメータ(330)も前記符号化音響シーン信号(340)に含まないように構成され、または、前記第2の周波数サブバンドに対する空間パラメータ(330)の数に比較して少ない数の前記第1の周波数サブバンドに対する空間パラメータを、前記符号化音響シーン信号(340)に含めるように構成された、
    請求項1から13のいずれか1項に記載の音響シーンエンコーダ。
  15. 少なくとも2成分の信号の第1の部分の第1の符号化表現(410)と、前記少なくとも2成分の信号の第2の部分の第2の符号化表現(420)と、前記少なくとも2成分の信号の第2の部分の1以上の空間パラメータ(430)とを含む符号化音響シーン信号(340)を受信する入力インタフェース(400)と、
    前記第1の符号化表現(410)および前記第2の符号化表現(420)を復号して、音響シーンを表す前記少なくとも2成分の信号の復号化表現(810、820)を得るコアデコーダ(500)と、
    前記少なくとも2成分の信号の前記第1の部分に対応する前記復号表現の一部分(810)を解析して、前記少なくとも2成分の信号の前記第1の部分に対する1以上の空間パラメータ(840)を導出する空間解析器(600)と、
    前記第1の部分に対する前記1以上の空間パラメータ(840)と前記第の部分に対する前記1以上の空間パラメータ(830)を使用して、前記復号化表現(810、820)を前記符号化音響シーン信号(340)に含まれるように空間的にレンダリングする空間レンダラ(800)と
    を備える音響シーンデコーダ。
  16. 前記符号化音響シーン信号(340)に含まれる前記第2の部分に対する前記1以上の空間パラメータ(430)を復号する空間パラメータ復号器(700)をさらに備え、
    前記空間レンダラ(800)は、前記少なくとも2成分の信号の前記復号化表現(810、820)の前記第2の部分をレンダリングするために、前記1以上の空間パラメータ(830)の復号化表現を使用するように構成された
    請求項15に記載の音響シーンデコーダ。
  17. 前記コアデコーダ(500)は、復号フレームのシーケンスを提供するように構成され、前記第1の部分は、前記復号フレームのシーケンスの第1のフレームであり、前記第2の部分は、前記復号フレームのシーケンスの第2のフレームであり、前記コアデコーダ(500)はさらに、後続の復号時間フレームを重ね合わせ加算して前記少なくとも2成分の信号の前記復号化表現(810、820)を得るオーバーラップ加算器をさらに備え、または、
    前記コアデコーダ(500)は、重ね合わせ加算動作なしにACELPベースシステム動作を行う構成である
    請求項15または16に記載の音響シーンデコーダ。
  18. 前記コアデコーダ(500)は、復号時間フレームのシーケンスを提供するように構成され、
    前記第1の部分は、前記復号時間フレームのシーケンスのひとつの時間フレームの第1のサブバンドであり、前記第2の部分は、前記復号時間フレームのシーケンスの前記時間フレームの第2のサブバンドであり、
    前記空間解析器(600)は、前記第1のサブバンドに対して1以上の空間パラメータ(840)を提供するように構成され、
    前記空間レンダラ(800)は、
    前記第1のサブバンドを、前記時間フレームの前記第1のサブバンドと前記第1のサブバンドに対する前記1以上の空間パラメータ(840)とを用いてレンダリングし、
    前記第2のサブバンドを、前記時間フレームの前記第2のサブバンドと前記第2のサブバンドに対する前記1以上の空間パラメータ(830)とを用いてレンダリングする
    請求項15から17のいずれか1項に記載の音響シーンデコーダ。
  19. 前記空間レンダラ(800)は、第1のレンダリングされたサブバンドと第2のレンダリングされたサブバンドとを結合して、レンダリングされた信号の時間フレームを得る結合器を有する請求項18に記載の音響シーンデコーダ。
  20. 前記空間レンダラ(800)は、ラウドスピーカ配置の各ラウドスピーカに対して、または1次または高次のアンビソニックスフォーマットの各成分に対して、または両耳フォーマットの各成分に対して、レンダリングされた信号を提供するように構成された、請求項15から19のいずれか1項に記載の音響シーンデコーダ。
  21. 前記空間レンダラ(800)は、
    各出力成分に対して、前記少なくとも2成分の信号の前記復号化表現(810、820)から出力成分信号を生成するプロセッサ(870b)と、
    前記1以上の空間パラメータ(830、840)を使用して前記出力成分信号を修正する利得プロセッサ(872)と、
    前記1以上の空間パラメータ(830、840)を使用して非相関化出力成分信号を生成する重み付け/非相関化プロセッサ(874)と、
    前記非相関化出力成分信号と前記出力成分信号とを結合して、レンダリングされたラウドスピーカ信号を得る合成器(876)と
    を有する、または、
    前記空間レンダラ(800)は、
    ラウドスピーカ配置の各ラウドスピーカに対して、少なくとも2成分の信号の前記復号化表現からラウドスピーカ成分信号を計算する仮想マイクロホンプロセッサ(870a)と、
    前記1以上の空間パラメータ(830、840)を使用して前記ラウドスピーカ成分信号を修正する利得プロセッサ(872)と、
    前記1以上の空間パラメータ(830、840)を使用して非相関化ラウドスピーカ成分信号を生成する重み付け/非相関化プロセッサ(874)と、
    前記非相関化ラウドスピーカ成分信号と前記ラウドスピーカ成分信号とを結合して、レンダリングされたラウドスピーカ信号を得る合成器(876)と
    を有する
    請求項15から20のいずれか1項に記載の音響シーンデコーダ。
  22. 前記空間レンダラ(800)は、帯域順に動作するように構成され、前記第1の部分は第1のサブバンドであり、この第1のサブバンドは複数の第1の帯域に分割され、前記第2の部分は第2のサブバンドであり、この第2のサブバンドは複数の第2の帯域に分割され、
    前記空間レンダラ(800)は、前記解析器によって導出された対応する空間パラメータを使用して、各第1の帯域に対して出力成分信号をレンダリングするように構成され、
    前記空間レンダラ(800)は、前記符号化音響シーン信号(340)に含まれる対応する空間パラメータを使用して、各第2の帯域に対する出力成分信号をレンダリングするように構成され、前記複数の第2の帯域のひとつの第2の帯域は、前記複数の第1の帯域のひとつの第1の帯域よりも大きく、
    前記空間レンダラ(800)は、前記第1の帯域および前記第2の帯域に対する出力成分信号を結合(878)してレンダリングされた出力信号を得るように構成され、このレンダリングされた出力信号は、ラウドスピーカ信号、Aフォーマット信号、Bフォーマット信号、1次アンビソニックス信号、高次アンビソニックス信号または両耳信号である
    請求項15から21のいずれか1項に記載の音響シーンデコーダ。
  23. 前記コアデコーダ(500)は、前記音響シーンを表現する前記少なくとも2成分の信号の前記復号化表現(810、820)として、第1成分信号として無指向性音響信号を、第2成分信号として少なくとも1つの指向性音響信号を生成するように構成され、または、前記音響シーンを表す前記少なくとも2成分の信号の前記復号化表現(810、820)は、Bフォーマット成分信号または1次のアンビソニックス成分信号、高次アンビソニックス成分信号を含む、請求項15から22のいずれか1項に記載の音響シーンデコーダ。
  24. 前記符号化音響シーン信号(340)は、前記符号化音響シーン信号(340)に含まれる前記第2の部分に対する前記空間パラメータ(430)と同じ種類の前記少なくとも2成分の信号の前記第1の部分に対するどのような空間パラメータも含まない、請求項15から23のいずれか1項に記載の音響シーンデコーダ。
  25. 前記コアデコーダ(500)は、前記第2の部分に対するパラメトリック復号動作(510b)を実行し、前記第1の部分に対する波形維持復号動作(510a)を実行するように構成された、請求項15から24のいずれか1項に記載の音響シーンデコーダ。
  26. 前記コアデコーダ(500)は、振幅関連パラメータをエントロピー復号の後に、前記第2のサブバンドをエンベロープ調整するため、振幅関連パラメータを用いてパラメトリック処理(510b)を実行するように構成され、
    前記コアデコーダ(500)は、第1のサブバンド内の個々のスペクトル線をエントロピー復号(510a)するように構成された、
    請求項18に記載の音響シーンデコーダ。
  27. 前記コアデコーダ(500)は、前記第2の符号化表現(420)の復号(510b)のため、スペクトル帯域複製(SBR)処理、インテリジェントギャップ充填(IGF)処理またはノイズ充填処理を行う構成である、請求項15から26のいずれか1項に記載の音響シーンデコーダ。
  28. 前記第1の部分は時間フレームの第1のサブバンドであり、前記第2の部分は時間フレームの第2のサブバンドであり、コアデコーダ(500)は、前記第1のサブバンドと前記第2のサブバンドとの間の所定の境界周波数を使用するように構成された、請求項15から27のいずれか1項に記載の音響シーンデコーダ。
  29. 前記音響シーンデコーダは、異なるビットレートで動作するように構成され、前記第1の部分と前記第2の部分との間の所定の境界周波数は、選択されたビットレートに依存し、前記所定の境界周波数は、より低いビットレートに対しては低く、あるいは、前記所定の境界周波数がより大きいビットレートに対して大きい、請求項15から28のいずれか1項に記載の音響シーンデコーダ。
  30. 前記第1の部分は時間部分の第1のサブバンドであり、前記第2の部分は時間部分の第2のサブバンドであり、
    前記空間解析器(600)は、前記第1のサブバンドに対して、前記1以上の空間パラメータ(840)として、方向性パラメータおよび拡散度パラメータの少なくとも1つを計算するように構成された、
    請求項15から29のいずれか1項に記載の音響シーンデコーダ。
  31. 前記第1の部分は時間フレームの第1のサブバンドであり、前記第2の部分は時間フレームの第2のサブバンドであり、
    空間解析器(600)は、前記第1のサブバンドを解析帯域に細分するように構成され、ひとつの解析帯域の帯域幅は、前記第1のサブバンドに対して前記コアデコーダ(500)により生成された2つの隣接するスペクトル値に関連する帯域幅以上であり、
    前記空間解析器(600)は、各解析帯域に対して方向性パラメータおよび拡散度パラメータの少なくとも1つを計算するように構成された、
    請求項15から29のいずれか1項に記載の音響シーンデコーダ。
  32. 前記空間解析器(600)は、前記方向性パラメータを計算するために前記拡散度パラメータを計算するために用いられる解析帯域よりも小さい解析帯域を使用するように構成された請求項31に記載の音響シーンデコーダ。
  33. 前記空間解析器(600)は、前記方向性パラメータを計算するために、第1の帯域幅を有する解析帯域を使用するように構成され、
    前記空間レンダラ(800)は、前記少なくとも2成分の信号の前記復号化表現(810、820)のレンダリング帯域をレンダリングするために、前記符号化音響シーン信号(340)に含まれる前記少なくとも2成分の信号の前記第2の部分に対して、前記1以上の空間パラメータ(840)のひとつの空間パラメータを使用するように構成され、前記レンダリング帯域は第2の帯域幅を有し、
    前記第2の帯域幅は、前記第1の帯域幅よりも大きい、
    請求項31または32に記載の音響シーンデコーダ。
  34. 前記符号化音響シーン信号(340)は、前記少なくとも2成分の信号に対する符号化マルチチャンネル信号を含み、あるいは、前記符号化音響シーン信号(340)は、2より大きい数の成分の信号に対する少なくとも2つの符号化マルチチャンネル信号を含み、
    前記コアデコーダ(500)は、前記符号化マルチチャンネル信号または前記少なくとも2つの符号化マルチチャンネル信号をコア復号するマルチチャネルデコーダを有する、
    請求項15から33のいずれか1項に記載の音響シーンデコーダ。
  35. 音響シーン(110)を符号化する方法であって、
    前記音響シーン(110)は、少なくとも2成分の信号を含み、
    前記少なくとも2成分の信号の第1の部分に対して第1の符号化表現(310)を生成し、前記少なくとも2成分の信号の第2の部分に対して第2の符号化表現(320)を生成して、前記少なくとも2成分の信号をコア符号化し、
    前記コア符号化は、前記少なくとも2成分の信号からひとつの時間フレームの形成を含み、ここで、前記時間フレームの第1の周波数サブバンドが前記少なくとも2成分の信号の前記第1の部分であり、前記時間フレームの第2の周波数サブバンドが前記少なくとも2成分の信号の前記第2の部分であり、前記第1の周波数サブバンドが前記第2の周波数サブバンドから所定の境界周波数により分離され、
    前記コア符号化はまた、M成分信号を含む前記第1の周波数サブバンドに対して前記第1の符号化表現(310)の生成、およびN成分信号を含む前記第2の周波数サブバンドに対して前記第2の符号化表現(320)の生成を含み、ここで、MはNより大きく、Nは1以上であり、
    前記少なくとも2成分の信号を含む前記音響シーン(110)を解析して、前記第2の周波数サブバンドに対して、1以上の空間パラメータ(330)または1以上の空間パラメータセットを導出し、
    前記M成分信号を含む前記第1の周波数サブバンドに対する前記第1の符号化表現(310)、N成分信号を含む前記第2の周波数サブバンドに対する前記第2の符号化表現(320)、および前記第2の周波数サブバンドに対する前記1以上の空間パラメータ(330)または前記1以上の空間パラメータセットを含む符号化音響シーン信号(340)を形成する
    音響シーンの符号化方法。
  36. 少なくとも2成分の信号の第1の部分の第1の符号化表現(410)と、前記少なくとも2成分の信号の第2の部分の第2の符号化表現(420)と、前記少なくとも2成分の信号の第2の部分の1以上の空間パラメータ(430)とを含む符号化音響シーン信号(340)を受信し、
    前記第1の符号化表現(410)および前記第2の符号化表現(420)を復号して、音響シーンを表す前記少なくとも2成分の信号の復号化表現(810、820)を取得し、
    前記少なくとも2成分の信号の前記第1の部分に対応する前記復号化表現の一部(810)を解析して、前記少なくとも2成分の信号の前記第1の部分に対する1以上の空間パラメータ(840)を導出し、
    前記第1の部分に対する前記1以上の空間パラメータ(840)と、前記第2の部分に対する前記1以上の空間パラメータ(430)と、を使用して、前記少なくとも2成分の信号の前記復号化表現(810、820)を、前記符号化音響シーン信号(340)に含まれるように空間的にレンダリングする
    音響シーンの復号化方法。
  37. コンピュータまたはプロセッサ上で動作する際に、請求項35に記載の方法または請求項36に記載の方法を実行するためのコンピュータプログラム。
JP2020541892A 2018-02-01 2019-01-31 ハイブリッドエンコーダ/デコーダ空間解析を使用する音響シーンエンコーダ、音響シーンデコーダおよびその方法 Active JP7261807B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023063771A JP2023085524A (ja) 2018-02-01 2023-04-10 ハイブリッドエンコーダ/デコーダ空間解析を使用する音響シーンエンコーダ、音響シーンデコーダおよびその方法

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
EP18154749 2018-02-01
EP18154749.8 2018-02-01
EP18185852.3 2018-07-26
EP18185852 2018-07-26
PCT/EP2019/052428 WO2019149845A1 (en) 2018-02-01 2019-01-31 Audio scene encoder, audio scene decoder and related methods using hybrid encoder/decoder spatial analysis

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023063771A Division JP2023085524A (ja) 2018-02-01 2023-04-10 ハイブリッドエンコーダ/デコーダ空間解析を使用する音響シーンエンコーダ、音響シーンデコーダおよびその方法

Publications (2)

Publication Number Publication Date
JP2021513108A JP2021513108A (ja) 2021-05-20
JP7261807B2 true JP7261807B2 (ja) 2023-04-20

Family

ID=65276183

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020541892A Active JP7261807B2 (ja) 2018-02-01 2019-01-31 ハイブリッドエンコーダ/デコーダ空間解析を使用する音響シーンエンコーダ、音響シーンデコーダおよびその方法
JP2023063771A Pending JP2023085524A (ja) 2018-02-01 2023-04-10 ハイブリッドエンコーダ/デコーダ空間解析を使用する音響シーンエンコーダ、音響シーンデコーダおよびその方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023063771A Pending JP2023085524A (ja) 2018-02-01 2023-04-10 ハイブリッドエンコーダ/デコーダ空間解析を使用する音響シーンエンコーダ、音響シーンデコーダおよびその方法

Country Status (16)

Country Link
US (3) US11361778B2 (ja)
EP (2) EP3724876B1 (ja)
JP (2) JP7261807B2 (ja)
KR (2) KR20240101713A (ja)
CN (2) CN118197326A (ja)
AU (1) AU2019216363B2 (ja)
BR (1) BR112020015570A2 (ja)
CA (1) CA3089550C (ja)
ES (1) ES2922532T3 (ja)
MX (1) MX2020007820A (ja)
PL (1) PL3724876T3 (ja)
RU (1) RU2749349C1 (ja)
SG (1) SG11202007182UA (ja)
TW (1) TWI760593B (ja)
WO (1) WO2019149845A1 (ja)
ZA (1) ZA202004471B (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109547711A (zh) * 2018-11-08 2019-03-29 北京微播视界科技有限公司 视频合成方法、装置、计算机设备及可读存储介质
GB201914665D0 (en) * 2019-10-10 2019-11-27 Nokia Technologies Oy Enhanced orientation signalling for immersive communications
GB2595871A (en) * 2020-06-09 2021-12-15 Nokia Technologies Oy The reduction of spatial audio parameters
CN114067810A (zh) * 2020-07-31 2022-02-18 华为技术有限公司 音频信号渲染方法和装置
CN115881140A (zh) * 2021-09-29 2023-03-31 华为技术有限公司 编解码方法、装置、设备、存储介质及计算机程序产品
KR20240116488A (ko) * 2021-11-30 2024-07-29 돌비 인터네셔널 에이비 장면-기반 몰입형 오디오 콘텐츠의 코딩 또는 디코딩을 위한 방법 및 디바이스
WO2023234429A1 (ko) * 2022-05-30 2023-12-07 엘지전자 주식회사 인공 지능 기기
WO2024208420A1 (en) 2023-04-05 2024-10-10 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio processor, audio processing system, audio decoder, method for providing a processed audio signal representation and computer program using a time scale modification

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009501948A (ja) 2005-07-19 2009-01-22 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ パラメトリックマルチチャネルオーディオ符号化とマトリックスサラウンドマルチチャネル符号化との間のギャップを埋めるための概念
JP2016510569A (ja) 2013-02-14 2016-04-07 ドルビー ラボラトリーズ ライセンシング コーポレイション 推定された空間的パラメータを使ったオーディオ信号の向上
US20170365264A1 (en) 2015-03-09 2017-12-21 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Audio encoder for encoding a multichannel signal and audio decoder for decoding an encoded audio signal

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4363122A (en) * 1980-09-16 1982-12-07 Northern Telecom Limited Mitigation of noise signal contrast in a digital speech interpolation transmission system
EP3712888B1 (en) * 2007-03-30 2024-05-08 Electronics and Telecommunications Research Institute Apparatus and method for coding and decoding multi object audio signal with multi channel
KR101452722B1 (ko) * 2008-02-19 2014-10-23 삼성전자주식회사 신호 부호화 및 복호화 방법 및 장치
JP5243527B2 (ja) * 2008-07-29 2013-07-24 パナソニック株式会社 音響符号化装置、音響復号化装置、音響符号化復号化装置および会議システム
EP2224433B1 (en) * 2008-09-25 2020-05-27 Lg Electronics Inc. An apparatus for processing an audio signal and method thereof
CN105225667B (zh) 2009-03-17 2019-04-05 杜比国际公司 编码器系统、解码器系统、编码方法和解码方法
ES2871224T3 (es) * 2011-07-01 2021-10-28 Dolby Laboratories Licensing Corp Sistema y método para la generación, codificación e interpretación informática (o renderización) de señales de audio adaptativo
CN103165136A (zh) * 2011-12-15 2013-06-19 杜比实验室特许公司 音频处理方法及音频处理设备
CN104054126B (zh) * 2012-01-19 2017-03-29 皇家飞利浦有限公司 空间音频渲染和编码
WO2014046916A1 (en) * 2012-09-21 2014-03-27 Dolby Laboratories Licensing Corporation Layered approach to spatial audio coding
EP2830045A1 (en) * 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Concept for audio encoding and decoding for audio channels and audio objects
EP2963949A1 (en) * 2014-07-02 2016-01-06 Thomson Licensing Method and apparatus for decoding a compressed HOA representation, and method and apparatus for encoding a compressed HOA representation
KR102219752B1 (ko) * 2016-01-22 2021-02-24 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 채널 간 시간 차를 추정하기 위한 장치 및 방법
US10454499B2 (en) * 2016-05-12 2019-10-22 Qualcomm Incorporated Enhanced puncturing and low-density parity-check (LDPC) code structure
WO2018064296A1 (en) * 2016-09-29 2018-04-05 Dolby Laboratories Licensing Corporation Method, systems and apparatus for determining audio representation(s) of one or more audio sources

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009501948A (ja) 2005-07-19 2009-01-22 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ パラメトリックマルチチャネルオーディオ符号化とマトリックスサラウンドマルチチャネル符号化との間のギャップを埋めるための概念
JP2016510569A (ja) 2013-02-14 2016-04-07 ドルビー ラボラトリーズ ライセンシング コーポレイション 推定された空間的パラメータを使ったオーディオ信号の向上
US20170365264A1 (en) 2015-03-09 2017-12-21 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Audio encoder for encoding a multichannel signal and audio decoder for decoding an encoded audio signal
US20170365263A1 (en) 2015-03-09 2017-12-21 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Audio encoder for encoding a multichannel signal and audio decoder for decoding an encoded audio signal

Also Published As

Publication number Publication date
RU2749349C1 (ru) 2021-06-09
KR20200116968A (ko) 2020-10-13
CN118197326A (zh) 2024-06-14
EP4057281A1 (en) 2022-09-14
PL3724876T3 (pl) 2022-11-07
TWI760593B (zh) 2022-04-11
WO2019149845A1 (en) 2019-08-08
JP2021513108A (ja) 2021-05-20
ES2922532T3 (es) 2022-09-16
EP3724876B1 (en) 2022-05-04
CA3089550A1 (en) 2019-08-08
US11361778B2 (en) 2022-06-14
CA3089550C (en) 2023-03-21
EP3724876A1 (en) 2020-10-21
US20220139409A1 (en) 2022-05-05
AU2019216363B2 (en) 2021-02-18
BR112020015570A2 (pt) 2021-02-02
SG11202007182UA (en) 2020-08-28
ZA202004471B (en) 2021-10-27
TW201937482A (zh) 2019-09-16
MX2020007820A (es) 2020-09-25
AU2019216363A1 (en) 2020-08-06
JP2023085524A (ja) 2023-06-20
US20200357421A1 (en) 2020-11-12
CN112074902B (zh) 2024-04-12
KR20240101713A (ko) 2024-07-02
US20230317088A1 (en) 2023-10-05
CN112074902A (zh) 2020-12-11
US11854560B2 (en) 2023-12-26

Similar Documents

Publication Publication Date Title
JP7261807B2 (ja) ハイブリッドエンコーダ/デコーダ空間解析を使用する音響シーンエンコーダ、音響シーンデコーダおよびその方法
TWI550598B (zh) 使用聯合編碼殘餘信號之音訊編碼器、音訊解碼器、方法及電腦程式
CN103474077B (zh) 音频信号译码器、提供上混信号表示型态的方法
CN109448741B (zh) 一种3d音频编码、解码方法及装置
AU2021359777B2 (en) Apparatus and method for encoding a plurality of audio objects using direction information during a downmixing or apparatus and method for decoding using an optimized covariance synthesis
TWI825492B (zh) 對多個音頻對象進行編碼的設備和方法、使用兩個以上之相關音頻對象進行解碼的設備和方法、電腦程式及資料結構產品
JP2023549038A (ja) パラメータ変換を用いて符号化されたオーディオシーンを処理するための装置、方法、またはコンピュータプログラム
JP2023549033A (ja) パラメータ平滑化を用いて符号化されたオーディオシーンを処理するための装置、方法、またはコンピュータプログラム
JP2023548650A (ja) 帯域幅拡張を用いて符号化されたオーディオシーンを処理するための装置、方法、またはコンピュータプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200930

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210924

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211102

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220502

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230207

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230308

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230410

R150 Certificate of patent or registration of utility model

Ref document number: 7261807

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150