JP2022536676A - DirACベースの空間オーディオ符号化のためのパケット損失隠蔽 - Google Patents

DirACベースの空間オーディオ符号化のためのパケット損失隠蔽 Download PDF

Info

Publication number
JP2022536676A
JP2022536676A JP2021573366A JP2021573366A JP2022536676A JP 2022536676 A JP2022536676 A JP 2022536676A JP 2021573366 A JP2021573366 A JP 2021573366A JP 2021573366 A JP2021573366 A JP 2021573366A JP 2022536676 A JP2022536676 A JP 2022536676A
Authority
JP
Japan
Prior art keywords
spatial audio
information
arrival information
audio parameters
spreading
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021573366A
Other languages
English (en)
Other versions
JP7453997B2 (ja
Inventor
フックス・ギヨーム
ムルトラス・マーカス
ドーラ・ステファン
アイヒェンシアー・アンドレア
Original Assignee
フラウンホーファー-ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フラウンホーファー-ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン filed Critical フラウンホーファー-ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン
Publication of JP2022536676A publication Critical patent/JP2022536676A/ja
Priority to JP2024035428A priority Critical patent/JP2024063226A/ja
Application granted granted Critical
Publication of JP7453997B2 publication Critical patent/JP7453997B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/005Correction of errors induced by the transmission channel, if related to the coding algorithm
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Otolaryngology (AREA)
  • Stereophonic System (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

空間オーディオパラメータの損失隠蔽のための方法であって、空間オーディオパラメータが少なくとも到来方向情報を含み、方法が、-少なくとも第1の到来方向情報を含む空間オーディオパラメータの第1のセットを受信するステップと、-少なくとも第2の到来方向情報を含む空間オーディオパラメータの第2のセットを受信するステップと、-少なくとも第2の到来方向情報または第2の到来方向情報の一部が失われるかまたは損傷している場合、第2のセットの第2の到来方向情報を、第1の到来方向情報から導出された置換到来方向情報と置き換えるステップと、を含む、方法。

Description

本発明の実施形態は、空間オーディオパラメータの損失隠蔽のための方法、DirAC符号化オーディオシーンを復号するための方法、および対応するコンピュータプログラムに関する。さらなる実施形態は、空間オーディオパラメータの損失隠蔽のための損失隠蔽装置、およびパケット損失隠蔽装置を備えるデコーダに関する。好ましい実施形態は、空間画像が指向性オーディオ符号化(DirAC)パラダイムによってパラメトリックに符号化されたオーディオシーンの伝送中に発生するフレームまたはパケットの損失および破損による品質劣化を補償するための概念/方法を説明する。
序論
音声およびオーディオ通信は、送信中のパケット損失に起因して異なる品質問題を受ける可能性がある。実際に、ビットエラーやジッタなどのネットワーク内の悪い条件は、いくつかのパケットの損失につながる可能性がある。これらの損失は、受信機側において再構築された音声またはオーディオ信号の知覚品質を大幅に低下させるクリック、プロップまたは望ましくない消音のような深刻なアーチファクトをもたらす。パケット損失の悪影響に対抗するために、パケット損失隠蔽(PLC)アルゴリズムが従来の音声およびオーディオ符号化方式で提案されている。そのようなアルゴリズムは、通常、受信ビットストリーム内の欠落データを隠すために合成オーディオ信号を生成することによって受信機側で動作する。
DirACは、空間パラメータのセットおよびダウンミックス信号によって音場をコンパクト且つ効率的に表す知覚的に動機付けされた空間オーディオ処理技術である。ダウンミックス信号は、一次アンビソニックス(FAO)としても知られるAフォーマットまたはBフォーマットなどのオーディオフォーマットのモノラル、ステレオ、またはマルチチャネル信号とすることができる。ダウンミックス信号は、時間/周波数単位当たりの到来方向(DOA)および拡散度に関してオーディオシーンを記述する空間DirACパラメータによって補完される。ストレージ、ストリーミングまたは通信アプリケーションでは、ダウンミックス信号は、各チャネルのオーディオ波形を保存することを目的として、従来のコアコーダ(例えば、EVS、またはEVSのステレオ/マルチチャネル拡張、または任意の他のモノ/ステレオ/マルチチャネルコーデック)によって符号化される。コアのコアコーダは、CELPなどの時間領域で動作する変換ベースの符号化方式または音声符号化方式の周りに構築されることができる。次いで、コアコーダは、パケット損失隠蔽(PLC)アルゴリズムなどの既存のエラー回復ツールを統合することができる。
一方、DirAC空間パラメータを保護する既存の解決策はない。したがって、改善された手法が必要とされている。
本発明の目的は、DirACの文脈における損失隠蔽の概念を提供することである。
この目的は、独立請求項の主題によって解決された。
本発明の実施形態は、空間オーディオパラメータの損失隠蔽のための方法を提供し、空間オーディオパラメータは、少なくとも到来方向情報を含む。本方法は、以下のステップを含む:
・第1の到来方向情報および第1の拡散度情報を含む空間オーディオパラメータの第1のセットを受信すること;
・第2の到来方向情報および第2の拡散度情報を含む、空間オーディオパラメータの第2のセットを受信すること;および
・少なくとも第2の到来方向情報または第2の到来方向情報の一部が失われた場合に、第2のセットの第2の到来方向情報を第1の到来方向情報から導出された置換到来方向情報によって置き換えること。
本発明の実施形態は、到来情報の損失または損傷の場合、失われた/損傷した到来情報は、別の利用可能な到来情報から導出された到来情報によって置き換えられることができるという知見に基づいている。例えば、第2の到来情報が失われた場合、第1の到来情報によって置き換えられることができる。換言すれば、これは、実施形態が、以前良好に受信された指向性情報およびディザリングを使用することによって回復された伝送損失の場合の指向性情報である空間パラメトリックオーディオのパケット損失隠蔽料金を提供することを意味する。したがって、実施形態は、直接パラメータによって符号化された空間オーディオサウンドの送信におけるパケット損失に対抗することを可能にする。
さらなる実施形態は、空間オーディオパラメータの第1のセットおよび第2のセットがそれぞれ第1の拡散情報および第2の拡散情報を含む方法を提供する。そのような場合、方策は、以下のとおりとすることができる:実施形態によれば、第1または第2の拡散情報は、少なくとも1つの到来方向情報に関連する少なくとも1つのエネルギー比から導出される。実施形態によれば、本方法は、第2のセットの第2の拡散度情報を、第1の拡散度情報から導出された置換拡散度情報によって置き換えることをさらに含む。これは、拡散がフレーム間であまり変化しないという仮定に基づく、いわゆるホールドストラテジの一部である。このため、単純であるが効果的な手法は、送信中に失われたフレームの最後の良好に受信されたフレームのパラメータを保持することである。この全体的な方策の別の部分は、第2の到来情報を第1の到来情報によって置き換えることであるが、それは基本的な実施形態の文脈で説明された。空間画像は経時的に比較的安定していなければならないと一般に考えることが安全であり、これは、DirACパラメータ、すなわちおそらくフレーム間であまり変化しない到来方向に対して変換されることができる。
さらなる実施形態によれば、置換到来方向情報は、第1の到来方向情報にしたがう。そのような場合、方向のディザリングと呼ばれる方策が使用されることができる。ここで、置き換えるステップは、実施形態によれば、置換到来方向情報をディザリングするステップを含むことができる。代替的または追加的に、置き換えるステップは、ノイズが第1の到来方向情報であるときに注入して置換到来方向情報を取得することを含んでもよい。そして、ディザリングは、同じフレームに使用する前に前の方向にランダムノイズを注入することによって、レンダリングされた音場をより自然でより快適にするのに役立つことができる。実施形態によれば、注入するステップは、第1または第2の拡散情報が高い拡散度を示す場合に実行されることが好ましい。あるいは、第1または第2の拡散情報が、高い拡散度を示す拡散情報に対して所定の閾値を上回る場合に実行されてもよい。さらなる実施形態によれば、拡散情報は、空間オーディオパラメータの第1のセットおよび/または第2のセットによって記述されるオーディオシーンの指向性成分と非指向性成分との間の比に対してより多くの空間を含む。実施形態によれば、注入されるランダムノイズは、第1および第2の拡散情報に依存する。あるいは、注入されるランダムノイズは、第1および/または第2の拡散情報に依存する係数によってスケーリングされる。したがって、実施形態によれば、本方法は、音調性を記述する音調性値を取得するために、第1の空間オーディオパラメータおよび/または第2の空間オーディオパラメータに属する送信されたダウンミックスの音調性を解析する、空間オーディオパラメータの第1のセットおよび/または第2のセットによって記述されるオーディオシーンの音調性を解析するステップをさらに含むことができる。そして、注入されるランダムノイズは、音調性値に依存する。実施形態によれば、スケーリングダウンは、音調性値の逆数と共に減少する係数によって、または音調性が増加する場合に実行される。
さらなる方策によれば、第1の到来方向情報を推定して置換到来方向情報を取得するステップを含む方法が使用されることができる。この手法によれば、オーディオシーン内のサウンドイベントのディレクトリを推定して、推定されたディレクトリを外挿することが想定されることができる。これは、音響イベントが空間内および点音源(拡散度が低い直接モデル)として十分に局在している場合に特に関連する。実施形態によれば、外挿は、空間オーディオパラメータの1つ以上のセットに属する1つ以上の追加の到来方向情報に基づく。実施形態によれば、第1および/または第2の拡散情報が低い拡散度を示す場合、または第1および/または第2の拡散情報が拡散情報の所定の閾値を下回る場合、外挿が実行される。
実施形態によれば、空間オーディオパラメータの第1のセットは、第1の時点および/または第1のフレームに属し、空間オーディオパラメータの第2のセットの双方は、第2の時点または第2のフレームに属する。あるいは、第2の時点は第1の時点の後であり、または第2のフレームは第1のフレームの後である。ほとんどの空間オーディオパラメータのセットが外挿に使用される実施形態に戻ると、好ましくは、例えば互いに後続する複数の時点/フレームに属するより多くの空間オーディオパラメータのセットが使用されることは明らかである。
さらなる実施形態によれば、空間オーディオパラメータの第1のセットは、第1の周波数帯域についての空間オーディオパラメータの第1のサブセットと、第2の周波数帯域についての空間オーディオパラメータの第2のサブセットとを含む。空間オーディオパラメータの第2のセットは、第1の周波数帯域についての空間オーディオパラメータの別の第1のサブセットと、第2の周波数帯域についての空間オーディオパラメータの別の第2のサブセットとを含む。
別の実施形態は、ダウンミックスと、空間オーディオパラメータの第1のセットと、空間オーディオパラメータの第2のセットとを含むDirAC符号化オーディオシーンを復号するステップを含む、DirAC符号化オーディオシーンを復号するための方法を提供する。この方法は、上述した隠蔽の損失のための方法のステップをさらに含む。
実施形態によれば、上述した方法は、コンピュータ実装されてもよい。したがって、実施形態は、以前の請求項のいずれか一項に記載の方法を有するコンピュータ上で実行されると、実行するためのプログラムコードを有するコンピュータプログラムを記憶したコンピュータ可読記憶媒体に言及した。
別の実施形態は、空間オーディオパラメータ(少なくとも到来方向情報を含む)の損失隠蔽のための損失隠蔽装置に関する。この装置は、受信機およびプロセッサを備える。受信機は、空間オーディオパラメータの第1のセットおよび空間オーディオパラメータの第2のセットを受信するように構成される(上記参照)。プロセッサは、第2の到来方向情報が失われたかまたは損傷した場合に、第2のセットの第2の到来方向情報を第1の到来方向情報から導出された置換到来方向情報によって置き換えるように構成される。別の実施形態は、損失隠蔽装置を備えるDirAC符号化オーディオ方式のデコーダに関する。
本発明の実施形態は、添付の図面を参照して以下に説明される。
DirAC解析および合成を示す概略ブロック図を示している。 DirAC解析および合成を示す概略ブロック図を示している。 低ビットレート3DオーディオコーダにおけるDirAC解析および合成の概略詳細ブロック図を示している。 基本的な実施形態にかかる損失隠蔽のための方法の概略フローチャートを示している。 基本的な実施形態にかかる概略的な損失隠蔽装置を示している。 実施形態を例示するために、DDR(図4aのウィンドウサイズW=16)の測定された拡散度関数の概略図を示している。 実施形態を例示するために、DDR(図4bのウィンドウサイズW=512)の測定された拡散度関数の概略図を示している。 実施形態を説明するために、拡散度の関数で測定された方向(方位角および仰角)の概略図を示している。 実施形態にかかるDirAC符号化オーディオシーンを復号するための方法の概略フローチャートを示している。 実施形態にかかるDirAC符号化オーディオシーン用のデコーダの概略ブロック図を示している。
以下、添付の図面を参照して本発明の実施形態が以下に説明されるが、同一または類似の機能を有する対象物/要素には同一の参照符号が与えられ、その結果、その説明は相互に適用可能且つ交換可能である。本発明の実施形態を詳細に記載する前に、DirACの序論が与えられる。
DirACの序論:DirACは、知覚的に動機付けされた空間音響再生である。ある時点において、1つの重要な帯域について、聴覚システムの空間分解能は、方向について1つのキューを復号し、両耳間コヒーレンスについて別のキューを復号することに限定されると仮定する。
これらの仮定に基づいて、DirACは、無指向性拡散ストリームおよび指向性非拡散ストリームの2つのストリームをクロスフェードすることによって1つの周波数帯域の空間音を表す。DirAC処理は、以下の2つの段階で実行される:
第1の段階は、図1aによって示される解析であり、第2の段階は、図1bによって示される合成である。
図1aは、マイクロフォン信号W、X、YおよびZを受信する1つ以上の帯域通過フィルタ12a~nを備える解析段10と、エネルギーについての解析段14eと、強度についての解析段14iとを示している。時間的に配置することによって、拡散度Ψ(参照符号16dを参照されたい)が判定されることができる。拡散度Ψは、エネルギー14cおよび強度14iの解析に基づいて判定される。強度および解析14iに基づいて、方向16eが判定されることができる。方向判定の結果が方位角および仰角である。Ψ、aziおよびeleがメタデータとして出力される。これらのメタデータは、図1bによって示される合成エンティティ20によって使用される。
図1bによって示される合成エンティティ20は、第1のストリーム22aおよび第2のストリーム22bを含む。第1のストリームは、複数の帯域通過フィルタ12a~nと、仮想マイクロフォン用の計算エンティティ24とを備える。第2のストリーム22bは、メタデータを処理するための手段、すなわち、拡散度パラメータについては26、方向パラメータについては27を備える。さらにまた、合成段階20では、相関除去器28が使用され、この相関除去エンティティ28は、2つのストリーム22a、22bのデータを受信する。相関除去器28の出力は、スピーカ29に供給されることができる。
DirAC解析段階では、Bフォーマットの一次一致マイクロフォンが入力として考慮され、音の拡散度および到来方向が周波数領域において解析される。
DirAC合成段階では、音は、非拡散ストリームおよび拡散ストリームの2つのストリームに分割される。非拡散ストリームは、ベクトルベース振幅パンニング(VBAP)[2]を使用することによって行われることができる振幅パンニングを使用して点源として再生される。拡散ストリームは、包囲の感覚に関与し、相互に相関のない信号をスピーカに伝達することによって生成される。
以下では空間メタデータまたはDirACメタデータとも呼ばれるDirACパラメータは、拡散度および方向のタプルからなる。方向は、方位角および仰角の2つの角度によって球面座標において表されることができ、拡散度は、0から1の間のスカラー係数である。
以下、DirAC空間オーディオコーディングのシステムが図2に関して説明される。図2は、二段階DirAC解析10’およびDirAC合成20’を示している。ここで、DirAC解析は、フィルタバンク解析12、方向推定器16i、および拡散度推定器16dを備える。16iおよび16dは、いずれも拡散度/方向データを空間メタデータとして出力する。このデータは、エンコーダ17を使用して符号化されることができる。直接解析20’は、空間メタデータデコーダ21と、出力合成23と、スピーカFOA/HOAに信号を出力することを可能にするフィルタバンク合成12とを備える。
空間メタデータを処理する上述した直接解析段階10’および直接合成段階20’と並行して、EVSエンコーダ/デコーダが使用される。解析側では、入力信号Bフォーマットに基づいてビームフォーミング/信号選択が行われる(ビーム形成/信号選択エンティティ15を参照されたい)。そして、信号は、EVS符号化される(参照符号17を参照されたい)。そして、信号は、EVS符号化される。合成側(参照符号20’を参照されたい)では、EVSデコーダ25が使用される。このEVSデコーダは、フィルタバンク解析12に信号を出力し、フィルタバンク解析12は、その信号を出力合成23に出力する。
ここで、直接解析/直接合成10’/20’の構造について説明されたため、機能性について詳細に説明する。
エンコーダ解析10’は、通常、Bフォーマットの空間オーディオシーン。あるいは、DirAC解析は、オーディオオブジェクトもしくはマルチチャネル信号または任意の空間オーディオフォーマットの組み合わせのような異なるオーディオフォーマットを解析するように調整されることができる。DirAC解析は、入力されたオーディオシーンからパラメトリック表現を抽出する。到来方向(DOA)および時間-周波数単位ごとに測定された拡散度がパラメータを形成する。DirAC解析の後には、DirACパラメータを量子化および符号化して低ビットレートパラメトリック表現を取得する空間メタデータエンコーダが続く。
パラメータと共に、異なるソースまたはオーディオ入力信号から導出されたダウンミックス信号は、従来のオーディオコアコーダによる送信のために符号化される。好ましい実施形態では、ダウンミックス信号を符号化するためにEVSオーディオコーダが好ましいが、本発明は、このコアコーダに限定されず、任意のオーディオコアコーダに適用されることができる。ダウンミックス信号は、トランスポートチャネルと呼ばれる異なるチャネルからなる:信号は、例えば、目標ビットレートに応じて、Bフォーマット信号、ステレオペア、またはモノラルダウンミックスを構成する4つの係数信号とすることができる。符号化空間パラメータおよび符号化オーディオビットストリームは、通信チャネルを介して送信される前に多重化される。
デコーダでは、トランスポートチャネルは、コアデコーダによって復号され、DirACメタデータは、復号されたトランスポートチャネルによってDirAC合成に搬送される前に最初に復号される。DirAC合成は、復号されたメタデータを使用して、直接音ストリームの再生および拡散音ストリームとの混合を制御する。再生音場は、任意のスピーカレイアウトで再生されることができ、またはアンビソニックスフォーマット(HOA/FOA)において任意の順序で生成されることができる。
DirACパラメータ推定:各周波数帯域において、音の拡散度とともに音の到来方向が推定される。入力Bフォーマット成分
Figure 2022536676000002
の時間周波数解析から、圧力および速度ベクトルは、以下のように判定されることができる:
Figure 2022536676000003
Figure 2022536676000004
ここで、iは入力のインデックスであり、
Figure 2022536676000005
および
Figure 2022536676000006
は時間周波数タイルの時間および周波数インデックスであり、
Figure 2022536676000007
はデカルト単位ベクトルを表す。
Figure 2022536676000008
および
Figure 2022536676000009
は、強度ベクトルの計算によってDirACパラメータ、すなわちDOAおよび拡散度を計算するために使用される:
Figure 2022536676000010

ここで、
Figure 2022536676000011
は複素共役を示す。合成音場の拡散度は、以下によって与えられる:
Figure 2022536676000012
ここで、
Figure 2022536676000013
は時間平均演算子を示し、
Figure 2022536676000014
は音速を示し、
Figure 2022536676000015
は以下によって与えられる音場エネルギーを示す:
Figure 2022536676000016
音場の拡散度は、0から1の値を有する音響強度とエネルギー密度との比として定義される。
到来方向(DOA)は、以下のように定義される単位ベクトル
Figure 2022536676000017
によって表される。
Figure 2022536676000018
到来方向は、Bフォーマット入力のエネルギー解析によって判定され、強度ベクトルの反対方向として定義されることができる。方向はデカルト座標で定義されるが、単位半径、方位角および仰角によって定義される球面座標に容易に変換されることができる。
送信の場合、パラメータは、ビットストリームを介して受信機側に送信される必要がある。限られた容量のネットワークを介したロバストな伝送のために、DirACパラメータのための効率的な符号化方式を設計することによって達成されることができる低ビットレートビットストリームが好ましい。それは、例えば、異なる周波数帯域および/または時間単位にわたってパラメータを平均化することによる周波数帯域グループ化、予測、量子化、およびエントロピー符号化などの技術を使用することができる。デコーダでは、ネットワーク内でエラーが発生しなかった場合に、送信されたパラメータが時間/周波数単位(k、n)ごとに復号されることができる。しかしながら、ネットワーク条件が適切なパケット送信を保証するのに十分でない場合、送信中にパケットが失われる可能性がある。本発明は、後者の場合の解決策を提供することを目的とする。
本来、DirACは、一次アンビソニックス信号としても知られるBフォーマット記録信号を処理するためのものであった。しかしながら、解析は、無指向性または指向性マイクロフォンを組み合わせた任意のマイクロフォンアレイに容易に拡張されることができる。この場合、DirACパラメータの本質は不変であるため、本発明は依然として重要である。
さらに、メタデータとしても知られるDirACパラメータは、空間オーディオコーダに搬送される前に、マイクロフォン信号処理中に直接計算されることができる。DirACに基づく空間符号化システムは、次に、メタデータおよびダウンミックス信号のオーディオ波形の形態のDirACパラメータと同等または類似の空間オーディオパラメータによって直接供給される。DoAおよび拡散度は、入力メタデータからパラメータ帯域ごとに容易に導出されることができる。そのような入力フォーマットは、MASA(メタデータ支援空間オーディオ)フォーマットと呼ばれることがある。MASAは、システムが、空間パラメータを計算するために必要なマイクロフォンアレイの特異性およびそれらの形状因子を無視することを可能にする。これらは、マイクロフォンを組み込んだ装置に固有の処理を使用して空間オーディオ符号化システムの外部で導出される。
本発明の実施形態は、図2に示すような空間符号化システムを使用することができ、DirACベースの空間オーディオエンコーダおよびデコーダが示されている。実施形態は、図3aおよび図3bに関して説明され、DirACモデルへの拡張は、前に説明される。
DirACモデルは、実施形態によれば、同じ時間/周波数タイルを有する異なる指向性成分を可能にすることによって拡張されることもできる。それは、以下の2つの主な方法で拡張されることができる:
第1の拡張は、T/Fタイルごとに2つ以上のDoAを送信することからなる。そして、各DoAは、エネルギーまたはエネルギー比に関連付けられなければならない。例えば、第lのDoAは、指向性成分のエネルギーとオーディオシーン全体のエネルギーとの間のエネルギー比
Figure 2022536676000019
に関連付けられることができる:
Figure 2022536676000020
ここで、
Figure 2022536676000021
は、第lの方向に関連付けられた強度ベクトルである。L個のDoAがそれらのL個のエネルギー比と共に伝送される場合、拡散度は、L個のエネルギー比から以下のように推定されることができる:
Figure 2022536676000022
ビットストリームで伝送される空間パラメータは、L個のエネルギー比と共にL個の方向であってもよく、またはこれらの最新のパラメータはまた、L-1個のエネルギー比+拡散度パラメータに変換されることもできる。
Figure 2022536676000023
第2の拡張は、2Dまたは3D空間を非重複セクタに分割し、各セクタについてDirACパラメータのセット(DoA+セクタごとの拡散度)を送信することからなる。次に、[5]において紹介した高次DirACについて説明する。
双方の拡張部は、実際に組み合わせられることができ、本発明は、双方の拡張部に関連する。
図3aおよび図3bは、本発明の実施形態を示し、図3aは、基本概念/使用される方法100に焦点を合わせた手法を示し、使用される装置50は、図3bによって示されている。
図3aは、基本ステップ110、120および130を含む方法100を示している。
第1のステップ110および120は、互いに同等であり、すなわち空間オーディオパラメータのセットの受信を指す。第1のステップ110では、第1のセットが受信され、第2のステップ120では、第2のセットが受信される。さらに、さらなる受信ステップが存在してもよい(図示せず)。第1のセットは、第1の時点/第1のフレームを指すことができ、第2のセットは、第2の(後続の)時点/第2の(後続の)フレームを指すことができることなどに留意されたい。上述したように、第1のセットおよび第2のセットは、拡散情報(Ψ)および/または方向情報(方位角および仰角)を含むことができる。この情報は、空間メタデータエンコーダを使用することによって符号化されることができる。ここで、第2の情報セットが送信中に失われるかまたは損傷されると仮定する。この場合、第2のセットは、第1のセットによって置き換えられる。これは、DirACパラメータのような空間オーディオパラメータのパケット損失隠蔽を可能にする。
パケット損失の場合、品質への影響を制限するために、失われたフレームの消去されたDirACパラメータが元に戻される必要がある。これは、過去に受信したパラメータを考慮することによって欠落パラメータを合成的に生成することによって達成されることができる。不安定な空間画像は、不快でアーチファクトとして知覚される可能性があるが、厳密に一定の空間画像は、不自然として知覚されることがある。
図3aによって説明した手法100は、図3bによって示されるようにエンティティ50によって実行されることができる。損失隠蔽のための装置50は、インターフェース52およびプロセッサ54を備える。インターフェースを介して、空間オーディオパラメータのセットΨ1、azi1、ele1、Ψ2、azi2、ele2、Ψn、azin、eleが受信されることができる。プロセッサ54は、受信したセットを解析し、失われたセットまたは損傷したセットの場合、例えば以前に受信したセットまたは同等のセットによって、失われたセットまたは損傷したセットを置き換える。これらの異なる方策が使用されることができ、これについては後述する。
ホールドストラテジ:空間画像は、経時的に比較的安定していなければならないと考えるのが一般的に安全であり、これは、DirACパラメータ、すなわちフレーム間であまり変化しない到来方向および拡散に対して変換されることができる。このため、単純であるが効果的な手法は、送信中に失われたフレームの最後の良好に受信されたフレームのパラメータを保持することである。
方向の推定:あるいは、オーディオシーン内の音響イベントの軌跡を推定し、次いで推定された軌跡を外挿しようと試みることが想定されることができる。音イベントが点音源として空間内に十分に局在化され、それが低い拡散度によってDirACモデルに反映される場合に特に関連する。推定された軌跡は、過去の方向の観測値から計算されることができ、これらの点の間に曲線をフィッティングすることができ、補間または平滑化のいずれかを発展させることができる。回帰解析もまた使用されることができる。次いで、観察されたデータの範囲を超えてフィッティングされた曲線を評価することによって外挿が行われる。
DirACでは、方向は、極座標で表現され、量子化され、符号化されることが多い。しかしながら、通常、2πを法とする演算の処理を回避するために、デカルト座標で方向を処理し、次いで軌跡を処理することがより便利である。
方向のディザリング:音イベントがより拡散すると、方向はあまり意味がなく、確率的プロセスの実現と考えることができる。そして、ディザリングは、失われたフレームに使用する前に前の方向にランダムノイズを注入することによって、レンダリングされた音場をより自然でより快適にするのに役立つことができる。注入ノイズおよびその分散は、拡散度の関数とすることができる。
標準的なDirACオーディオシーン解析を使用して、モデルの方向の精度および有意性に対する拡散度の影響を調べることができる。平面波成分と拡散場成分との間に直接拡散エネルギー比(DDR)が与えられる人工Bフォーマット信号を使用して、得られたDirACパラメータおよびその精度を解析することができる。
理論的な拡散度
Figure 2022536676000024
は、直接拡散エネルギー比(DDR)
Figure 2022536676000025
の関数であり、以下のように表される:
Figure 2022536676000026
ここで、
Figure 2022536676000027
および
Figure 2022536676000028
は、それぞれ、平面波および拡散度であり、
Figure 2022536676000029
は、dBスケールで表されたDDRである。
もちろん、議論された3つの方策のうちの1つまたは組み合わせが使用されることができる。使用される方策は、受信された空間オーディオパラメータセットに応じてプロセッサ54によって選択される。このために、実施形態によれば、オーディオパラメータが解析されて、オーディオシーンの特性にしたがって、より具体的には拡散度にしたがって異なる方策の適用を可能にすることができる。
これは、実施形態によれば、プロセッサ54が、以前に良好に受信された指向性情報およびディザリングを使用することによって空間パラメトリックオーディオのパケット損失隠蔽を提供するように構成されることを意味する。さらなる実施形態によれば、ディザリングは、オーディオシーンの指向性成分と無指向性成分との間の推定された拡散度またはエネルギー比の関数である。実施形態によれば、ディザリングは、送信されたダウンミックス信号の測定された音調性の関数である。したがって、解析器は、推定された拡散度、エネルギー比および/または音調性に基づいて解析を実行する。
図3aおよび図3bでは、測定された拡散度は、0度の方位角および0度の仰角に配置された独立したピンクノイズによって、球および平面波上に均等に配置されたN=466の無相関ピンクノイズを有する拡散場をシミュレートすることによって、DDRの関数で与えられる。DirAC解析で測定された拡散度は、観測窓の長さWが十分に大きい場合、理論的な拡散度の良好な推定値であることが確認された。これは、拡散度が長期特性を有することを意味し、これは、パケット損失の場合のパラメータが、以前に良好に受信された値を単に保持することによって良好に予測されることができることを確認する。
一方、方向パラメータの推定はまた、図4に報告されている真の拡散度の関数で評価されることもできる。推定された平面波位置の仰角および方位角は、拡散度とともに標準偏差が大きくなるグランドトゥルース位置(0度方位角および0度仰角)からずれていることが示されることができる。拡散度が1の場合、標準偏差は、0度から360度の間で定義された方位角に対して約90度であり、均一な分布の完全にランダムな角度に対応する。換言すれば、方位角は意味をなさない。仰角についても同様の観察が行われることができる。一般に、推定される方向の精度およびその有意性は、拡散度とともに低下している。そして、DirAC内の方向は、経時的に変動し、拡散度の分散関数を用いてその期待値から逸脱すると予想される。この自然な分散は、DirACモデルの一部であり、オーディオシーンの忠実な再生に不可欠である。実際に、拡散度が高くてもDirACの方向成分を一定の方向にレンダリングすることは、実際にはより広く知覚されるべき点源を生成する。
上記で明らかにされた理由のために、本発明者らは、ホールドストラテジの上部の方向にディザリングを適用することを提案する。ディザリングの振幅は、拡散度の関数とされ、例えば、図4に描かれたモデルにしたがうことができる。標準偏差が以下のように表される、仰角および仰角測定角度の2つのモデルが導出されることができる:
Figure 2022536676000030
Figure 2022536676000031
DirACパラメータ隠蔽の擬似コードは、以下のようにすることができる:
for k in frame_start:frame_end
{
if(bad_frame_indicator[k])
{
for band in band_start:band_end
{
diff_index = diffuseness_index[k-1][band];
diffuseness[k][band] = unquantize_diffuseness(diff_index);

azimuth_index[k][b] = azimuth_index[k-1][b];
azimuth[k][b] = unquantize_azimuth(azimuth_index[k][b])
azimuth[k][b] = azimuth[k][b] + random() * dithering_azi_scale[diff_index]

elevation_index[k][b] = elevation_index[k-1][b];
elevation[k][b] = unquantize_elevation(elevation_index[k][b])

elevation[k][b] = elevation[k][b] + random() * dithering_ele_scale[diff_index]
}
else
{
for band in band_start:band_end
{
diffuseness_index[k][b] = read_diffusess_index()
azimuth_index[k][b] = read_azimuth _index()
elevation_index[k][b] = read_elevation_index()

diffuseness[k][b] = unquantize_diffuseness(diffuseness_index[k][b])
azimuth[k][b] = unquantize_azimuth(azimuth_index[k][b])
elevation[k][b] = unquantize_elevation(elevation_index[k][b])
}

output_frame[k] = Dirac_synthesis(diffuseness[k][b], azimuth[k][b], elevation[k][b])
}
ここで、bad_frame_indicator[k]は、インデックスkのフレームが良好に受信されたか否かを示すフラグである。良好なフレームの場合、DirACパラメータは、所与の周波数範囲に対応する各パラメータ帯域について読み取られ、復号され、量子化されない。不良フレームの場合、拡散度は、同じパラメータ帯域において最後の良好に受信されたフレームから直接保持されるが、方位角および仰角は、拡散度インデックスの係数関数によってスケーリングされたランダム値の注入によって最後の良好に受信されたインデックスを逆量子化することから導出される。関数random()は、所与の分布にしたがってランダム値を出力する。ランダムプロセスは、例えば、平均および単位分散が0の標準正規分布にしたがうことができる。あるいは、例えば以下の擬似コードを使用して、-1と1との間の一様分布にしたがうか、または三角形確率密度にしたがうことができる。
random()
{
rand_val = uniform_random();
if( rand_val <= 0.0f )
{
return 0.5f * sqrt(rand_val + 1.0f) - 0.5f;
}
else
{
return 0.5f - 0.5f * sqrt(1.0f - rand_val);
}
}
ディザリングスケールは、同じパラメータ帯域で最後の良好に受信されたフレームから継承された拡散度インデックスの関数であり、図4から推定されたモデルから導出されることができる。例えば、拡散度が8個のインデックスで符号化される場合、それらは、以下の表に対応することができる:
dithering_azi_scale[8] = {
6.716062e-01f, 1.011837e+00f, 1.799065e+00f, 2.824915e+00f, 4.800879e+00f, 9.206031e+00f, 1.469832e+01f, 2.566224e+01f
};

dithering_ele_scale[8] = {
6.716062e-01f, 1.011804e+00f, 1.796875e+00f, 2.804382e+00f, 4.623130e+00f, 7.802667e+00f, 1.045446e+01f, 1.379538e+01f
};
さらに、ディザリング強度はまた、ダウンミックス信号の性質に応じて操作されることもできる。実際に、非常に音調性の高い信号は、非音調信号としてより局所的な音源として知覚される傾向がある。したがって、ディザリングは、次に、音調アイテムのディザリング効果を減少させることによって、伝達されたダウンミックスの音調性の機能において調整されることができる。音調性は、例えば、長期予測利得を計算することによって時間領域で、またはスペクトル平坦性を測定することによって周波数領域で測定されることができる。
図6aおよび図6bに関して、DirAC符号化オーディオシーンを復号するための方法(図6a、方法200を参照されたい)およびDirAC符号化オーディオシーンのためのデコーダ17(図6bを参照されたい)を参照するさらなる実施形態について説明する。
図6aは、方法100のステップ110、120および130と、復号の追加のステップ210とを含む新しい方法200を示している。復号するステップは、空間オーディオパラメータの第1のセットおよび空間オーディオパラメータの第2のセットの使用によるダウンミックス(図示せず)を含むDirAC符号化オーディオシーンの復号を可能にし、ここで、置き換えられた第2のセットが使用され、ステップ130によって出力される。この概念は、図6bによって示される装置17によって使用される。図6bは、空間オーディオパラメータ15の損失隠蔽のためのプロセッサとDirACデコーダ72とを備えるデコーダ70を示している。DirACデコーダ72、またはより詳細にはDirACデコーダ72のプロセッサは、ダウンミックス信号および空間オーディオパラメータのセットを、例えばインターフェース52から直接受信し、および/または上述した手法にしたがってプロセッサ52によって処理される。
いくつかの態様が装置の文脈で説明されたが、これらの態様は、対応する方法の説明も表すことは明らかであり、ブロックまたは装置は、方法ステップまたは方法ステップの特徴に対応する。同様に、方法ステップの文脈で説明された態様は、対応する装置の対応するブロックまたは項目または機能の説明も表す。方法ステップの一部または全ては、例えば、マイクロプロセッサ、プログラム可能なコンピュータ、または電子回路などのハードウェア装置によって(または使用して)実行されることができる。いくつかの実施形態では、いくつかの1つ以上の最も重要な方法ステップが、そのような装置によって実行されることができる。
本発明の符号化された音声信号は、デジタル記憶媒体に記憶されることができるか、または無線伝送媒体などの伝送媒体またはインターネットなどの有線伝送媒体上で送信されることができる。
特定の実装要件に応じて、本発明の実施形態は、ハードウェアまたはソフトウェアで実装されることができる。実装は、電子的に読み取り可能な制御信号が記憶され、それぞれの方法が実行されるようにプログラム可能なコンピュータシステムと協働する(または協働することができる)、フロッピーディスク、DVD、ブルーレイ、CD、ROM、PROM、EPROM、EEPROM、フラッシュメモリなどのデジタル記憶媒体を使用して行うことができる。したがって、デジタル記憶媒体は、コンピュータ可読とすることができる。
本発明にかかるいくつかの実施形態は、本明細書に記載の方法の1つが実行されるように、プログラム可能なコンピュータシステムと協調することができる電子的に読み取り可能な制御信号を有するデータキャリアを備える。
一般に、本発明の実施形態は、プログラムコードを備えたコンピュータプログラム製品として実装されることができ、プログラムコードは、コンピュータプログラム製品がコンピュータ上で実行されるときに方法の1つを実行するために動作する。プログラムコードは、例えば、機械可読キャリアに記憶されてもよい。
他の実施形態は、機械可読キャリアに記憶された、本明細書に記載の方法の1つを実行するためのコンピュータプログラムを備える。
換言すれば、本発明の方法の実施形態は、したがって、コンピュータプログラムがコンピュータ上で実行されるときに、本明細書に記載の方法の1つを実行するためのプログラムコードを有するコンピュータプログラムである。
したがって、本発明の方法のさらなる実施形態は、本明細書に記載の方法の1つを実行するためのコンピュータプログラムをその上に記録して含むデータキャリア(またはデジタル記憶媒体、またはコンピュータ可読媒体)である。データキャリア、デジタル記憶媒体、または記録された媒体は、通常、有形および/または非一時的である。
したがって、本発明の方法のさらなる実施形態は、本明細書に記載の方法の1つを実行するためのコンピュータプログラムを表すデータストリームまたは信号のシーケンスである。データストリームまたは信号のシーケンスは、例えば、インターネットなどのデータ通信接続を介して転送されるように構成されてもよい。
さらなる実施形態は、本明細書に記載の方法の1つを実行するように構成または適合された処理手段、例えば、コンピュータ、またはプログラマブルロジックデバイスを備える。
さらなる実施形態は、本明細書に記載の方法のうちの1つを実行するためのコンピュータプログラムをその上にインストールしたコンピュータを備える。
本発明にかかるさらなる実施形態は、本明細書に記載の方法の1つを実行するためのコンピュータプログラムを受信機に(例えば、電子的または光学的に)転送するように構成された装置またはシステムを備える。受信機は、例えば、コンピュータ、モバイル装置、メモリ装置などとすることができる。装置またはシステムは、例えば、コンピュータプログラムを受信機に転送するためのファイルサーバを備えることができる。
いくつかの実施形態では、プログラマブルロジックデバイス(例えば、フィールドプログラマブルゲートアレイ)を使用して、本明細書に記載の方法の機能のいくつかまたは全てを実行することができる。いくつかの実施形態では、フィールドプログラマブルゲートアレイは、本明細書に記載の方法の1つを実行するためにマイクロプロセッサと協調することができる。一般に、方法は、好ましくは、任意のハードウェア装置によって実行される。
上述した実施形態は、本発明の原理を単に例示するものである。本明細書に記載された構成および詳細の変更および変形は、他の当業者にとって明らかであることが理解される。したがって、本明細書の実施形態の記載および説明として提示された特定の詳細によってではなく、差し迫った特許請求の範囲によってのみ限定されることが意図される。
参考文献
[1] V. Pulkki, M-V. Laitinen, J. Vilkamo, J. Ahonen, T. Lokki, and T. Pihlajamaeki, “Directional audio coding - perception-based reproduction of spatial sound”, International Workshop on the Principles and Application on Spatial Hearing, Nov. 2009, Zao; Miyagi, Japan.
[2] V. Pulkki, “Virtual source positioning using vector base amplitude panning”, J. Audio Eng. Soc., 45(6):456-466, June 1997.
[3] J. Ahonen and V. Pulkki, “Diffuseness estimation using temporal variation of intensity vectors”, in Workshop on Applications of Signal Processing to Audio and Acoustics WASPAA, Mohonk Mountain House, New Paltz, 2009.
[4] T. Hirvonen, J. Ahonen, and V. Pulkki, “Perceptual compression methods for metadata in Directional Audio Coding applied to audiovisual teleconference”, AES 126th Convention 2009, May 7-10, Munich, Germany.
[5] A. Politis, J. Vilkamo and V. Pulkki, “Sector-Based Parametric Sound Field Reproduction in the Spherical Harmonic Domain,“ in IEEE Journal of Selected Topics in Signal Processing, vol. 9, no. 5, pp. 852-866, Aug. 2015.

Claims (20)

  1. 空間オーディオパラメータの損失隠蔽のための方法(100)であって、前記空間オーディオパラメータが少なくとも到来方向情報を含み、前記方法が、
    少なくとも第1の到来方向情報(azi1、ele1)を含む空間オーディオパラメータの第1のセットを受信するステップ(110)と、
    少なくとも第2の到来方向情報(azi2、ele2)を含む空間オーディオパラメータの第2のセットを受信するステップ(120)と、
    少なくとも前記第2の到来方向情報(azi2、ele2)または前記第2の到来方向情報(azi2、ele2)の一部が失われるかまたは損傷している場合、第2のセットの前記第2の到来方向情報(azi2、ele2)を、前記第1の到来方向情報(azi1、ele1)から導出された置換到来方向情報と置き換えるステップと、を含む、方法(100)。
  2. 前記空間オーディオパラメータの第1のセット(1番目のセット)および第2のセット(2番目のセット)が、それぞれ、第1の拡散情報および第2の拡散情報(Ψ1、Ψ2)を含む、請求項1に記載の方法(100)。
  3. 前記第1または第2の拡散情報(Ψ1、Ψ2)が、少なくとも1つの到来方向情報に関する少なくとも1つのエネルギー比から導出される、請求項2に記載の方法(100)。
  4. 前記方法が、第2のセット(2番目のセット)の前記第2の拡散度情報(Ψ2)を、前記第1の拡散度情報(Ψ1)から導出された置換拡散度情報によって置き換えることをさらに含む、請求項2または3に記載の方法(100)。
  5. 前記置換到来方向情報が、前記第1の到来方向情報(azi1、ele1)にしたがう、請求項1から4のいずれか一項に記載の方法(100)。
  6. 前記置き換えるステップが、前記置換到来方向情報をディザリングするステップを含み、および/または、
    前記置き換えるステップが、前記置換到来方向情報を取得するために前記第1の到来方向情報(azi1、ele1)にランダムノイズを注入することを含む、請求項1から5のいずれか一項に記載の方法(100)。
  7. 前記注入するステップが、前記第1または第2の拡散情報(Ψ1、Ψ2)が高い拡散度を示す場合に、および/または、前記第1または第2の拡散情報(Ψ1、Ψ2)が前記拡散情報の所定の閾値を上回っている場合に実行される、請求項6に記載の方法(100)。
  8. 前記拡散情報が、前記空間オーディオパラメータの第1のセット(1番目のセット)および/または第2のセット(2番目のセット)によって記述されるオーディオシーンの指向性成分と非指向性成分との間の比を含むか、またはそれに基づく、請求項7に記載の方法(100)。
  9. 前記注入されるランダムノイズが、前記第1および/または第2の拡散情報(Ψ1、Ψ2)に依存し、および/または、
    前記注入されるランダムノイズが、前記第1および/または第2の拡散情報(Ψ1、Ψ2)に依存する係数によってスケーリングされる、請求項6から8のいずれか一項に記載の方法(100)。
  10. 前記空間オーディオパラメータの第1のセット(1番目のセット)および/または第2のセット(2番目のセット)によって記述されるオーディオシーンの音調性を解析するステップ、または、前記音調性を記述する音調性値を取得するために前記空間オーディオパラメータの第1のセット(1番目のセット)および/または第2のセット(2番目のセット)に属する送信されたダウンミックスの音調性を解析するステップをさらに含み、
    前記注入されるランダムノイズが前記音調性値に依存する、請求項6から9のいずれか一項に記載の方法(100)。
  11. 前記ランダムノイズが、前記音調性値の逆数と共に減少する係数によって、または前記音調性が増加する場合にスケールダウンされる、請求項10に記載の方法(100)。
  12. 前記方法(100)が、前記置換到来方向情報を取得するために前記第1の到来方向情報(azi1、ele1)を外挿するステップを含む、請求項1から11のいずれか一項に記載の方法(100)。
  13. 前記外挿することが、空間オーディオパラメータの1つ以上のセットに属する1つ以上の追加の到来方向情報に基づく、請求項12に記載の方法(100)。
  14. 前記第1および/または第2の拡散情報(Ψ1、Ψ2)が低い拡散度を示す場合、または、前記第1および/または第2の拡散情報(Ψ1、Ψ2)が拡散情報の所定の閾値を下回る場合、前記外挿が実行される、請求項12または13に記載の方法(100)。
  15. 前記空間オーディオパラメータの第1のセット(1番目のセット)が、第1の時点および/または第1のフレームに属し、前記空間オーディオパラメータの第2のセット(2番目のセット)が、第2の時点および/または第2のフレームに属し、または
    前記空間オーディオパラメータの第1のセット(1番目のセット)が、第1の時点に属し、前記第2の時点が、前記第1の時点の後であり、または前記第2のフレームが、前記第1のフレームの後である、請求項1から14のいずれか一項に記載の方法(100)。
  16. 前記空間オーディオパラメータの第1のセット(1番目のセット)が、第1の周波数帯域についての空間オーディオパラメータの第1のサブセットと、第2の周波数帯域についての空間オーディオパラメータの第2のサブセットとを含み、および/または、
    前記空間オーディオパラメータの第2のセット(2番目のセット)が、前記第1の周波数帯域についての空間オーディオパラメータの別の第1のサブセットと、前記第2の周波数帯域についての空間オーディオパラメータの別の第2のサブセットとを含む、請求項1から15のいずれか一項に記載の方法(100)。
  17. DirAC符号化オーディオシーンを復号するための方法(200)であって、
    ダウンミックス、空間オーディオパラメータの第1のセットおよび空間オーディオパラメータの第2のセットを含む前記DirAC符号化オーディオシーンを復号するステップと、
    前のステップのうちの1つにしたがって前記方法を実行するステップと、を含む、方法(200)。
  18. コンピュータ上で実行されると、請求項1から17
    のいずれか一項に記載の方法(100、200)を実行するためのプログラムコードを有するコンピュータプログラムを記憶したコンピュータ可読デジタル記憶媒体。
  19. 空間オーディオパラメータの損失隠蔽のための損失隠蔽装置(50)であって、前記空間オーディオパラメータが、少なくとも到来方向情報を含み、前記装置が、
    第1の到来方向情報(azi1、ele1)を含む空間オーディオパラメータの第1のセットを受信し(110)、第2の到来方向情報(azi2、ele2)を含む空間オーディオパラメータの第2のセットを受信する(120)ための受信機(52)と、
    少なくとも前記第2の到来方向情報(azi2、ele2)または前記第2の到来方向情報(azi2、ele2)の一部が失われるかまたは損傷している場合、前記第2のセットの前記第2の到来方向情報(azi2、ele2)を、前記第1の到来方向情報(azi1、ele1)から導出された置換到来方向情報によって置き換えるためのプロセッサ(54)と、を備える、損失隠蔽装置(50)。
  20. 請求項19に記載の損失隠蔽装置を備える、DirAC符号化オーディオシーン用のデコーダ(70)。

JP2021573366A 2019-06-12 2020-06-05 DirACベースの空間オーディオ符号化のためのパケット損失隠蔽 Active JP7453997B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024035428A JP2024063226A (ja) 2019-06-12 2024-03-08 DirACベースの空間オーディオ符号化のためのパケット損失隠蔽

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP19179750.5 2019-06-12
EP19179750 2019-06-12
PCT/EP2020/065631 WO2020249480A1 (en) 2019-06-12 2020-06-05 Packet loss concealment for dirac based spatial audio coding

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024035428A Division JP2024063226A (ja) 2019-06-12 2024-03-08 DirACベースの空間オーディオ符号化のためのパケット損失隠蔽

Publications (2)

Publication Number Publication Date
JP2022536676A true JP2022536676A (ja) 2022-08-18
JP7453997B2 JP7453997B2 (ja) 2024-03-21

Family

ID=67001526

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021573366A Active JP7453997B2 (ja) 2019-06-12 2020-06-05 DirACベースの空間オーディオ符号化のためのパケット損失隠蔽
JP2024035428A Pending JP2024063226A (ja) 2019-06-12 2024-03-08 DirACベースの空間オーディオ符号化のためのパケット損失隠蔽

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024035428A Pending JP2024063226A (ja) 2019-06-12 2024-03-08 DirACベースの空間オーディオ符号化のためのパケット損失隠蔽

Country Status (13)

Country Link
US (1) US20220108705A1 (ja)
EP (2) EP3984027B1 (ja)
JP (2) JP7453997B2 (ja)
KR (1) KR20220018588A (ja)
CN (1) CN114097029A (ja)
AU (1) AU2020291776B2 (ja)
BR (1) BR112021024735A2 (ja)
CA (1) CA3142638A1 (ja)
MX (1) MX2021015219A (ja)
SG (1) SG11202113230QA (ja)
TW (1) TWI762949B (ja)
WO (1) WO2020249480A1 (ja)
ZA (1) ZA202109798B (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113676397B (zh) * 2021-08-18 2023-04-18 杭州网易智企科技有限公司 空间位置数据处理方法、装置、存储介质及电子设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015532062A (ja) * 2012-09-12 2015-11-05 フラウンホーファーゲゼルシャフトツール フォルデルング デル アンゲヴァンテン フォルシユング エー.フアー. 3dオーディオのための強化されガイドされるダウンミクス能力を提供するための装置および方法
JP2016528535A (ja) * 2013-07-05 2016-09-15 ドルビー インターナショナル アクチボラグ パケット損失補償装置およびパケット損失補償方法、ならびに音声処理システム
WO2018060550A1 (en) * 2016-09-28 2018-04-05 Nokia Technologies Oy Spatial audio signal format generation from a microphone array using adaptive capture

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003107591A1 (en) * 2002-06-14 2003-12-24 Nokia Corporation Enhanced error concealment for spatial audio
US8908873B2 (en) * 2007-03-21 2014-12-09 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Method and apparatus for conversion between multi-channel audio formats
US8116694B2 (en) * 2008-12-23 2012-02-14 Nokia Corporation System for facilitating beam training
EP2249334A1 (en) * 2009-05-08 2010-11-10 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio format transcoder
EP2423702A1 (en) * 2010-08-27 2012-02-29 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for resolving ambiguity from a direction of arrival estimate
WO2013149671A1 (en) * 2012-04-05 2013-10-10 Huawei Technologies Co., Ltd. Multi-channel audio encoder and method for encoding a multi-channel audio signal
EP3179744B1 (en) * 2015-12-08 2018-01-31 Axis AB Method, device and system for controlling a sound image in an audio zone
HK1221372A2 (zh) * 2016-03-29 2017-05-26 萬維數碼有限公司 種獲得空間音頻定向向量的方法、裝置及設備
US10714098B2 (en) * 2017-12-21 2020-07-14 Dolby Laboratories Licensing Corporation Selective forward error correction for spatial audio codecs
GB2572420A (en) * 2018-03-29 2019-10-02 Nokia Technologies Oy Spatial sound rendering
EP3553777B1 (en) * 2018-04-09 2022-07-20 Dolby Laboratories Licensing Corporation Low-complexity packet loss concealment for transcoded audio signals

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015532062A (ja) * 2012-09-12 2015-11-05 フラウンホーファーゲゼルシャフトツール フォルデルング デル アンゲヴァンテン フォルシユング エー.フアー. 3dオーディオのための強化されガイドされるダウンミクス能力を提供するための装置および方法
JP2016528535A (ja) * 2013-07-05 2016-09-15 ドルビー インターナショナル アクチボラグ パケット損失補償装置およびパケット損失補償方法、ならびに音声処理システム
WO2018060550A1 (en) * 2016-09-28 2018-04-05 Nokia Technologies Oy Spatial audio signal format generation from a microphone array using adaptive capture

Also Published As

Publication number Publication date
TWI762949B (zh) 2022-05-01
EP3984027B1 (en) 2024-04-24
BR112021024735A2 (pt) 2022-01-18
ZA202109798B (en) 2022-08-31
SG11202113230QA (en) 2021-12-30
MX2021015219A (es) 2022-01-18
US20220108705A1 (en) 2022-04-07
AU2020291776B2 (en) 2023-11-16
EP3984027A1 (en) 2022-04-20
JP7453997B2 (ja) 2024-03-21
AU2020291776A1 (en) 2022-01-20
CA3142638A1 (en) 2020-12-17
EP4372741A2 (en) 2024-05-22
JP2024063226A (ja) 2024-05-10
TW202113804A (zh) 2021-04-01
CN114097029A (zh) 2022-02-25
WO2020249480A1 (en) 2020-12-17
KR20220018588A (ko) 2022-02-15

Similar Documents

Publication Publication Date Title
US11765536B2 (en) Representing spatial audio by means of an audio signal and associated metadata
JP7311601B2 (ja) 直接成分補償を用いたDirACベースの空間音声符号化に関する符号化、復号化、シーン処理および他の手順を行う装置、方法およびコンピュータプログラム
JP2024063226A (ja) DirACベースの空間オーディオ符号化のためのパケット損失隠蔽
KR20210071972A (ko) 신호 처리 장치 및 방법, 그리고 프로그램
RU2807473C2 (ru) Маскировка потерь пакетов для пространственного кодирования аудиоданных на основе dirac
RU2782511C1 (ru) Устройство, способ и компьютерная программа для кодирования, декодирования, обработки сцены и других процедур, связанных с пространственным аудиокодированием на основе dirac с использованием компенсации прямых компонент
RU2779415C1 (ru) Устройство, способ и компьютерная программа для кодирования, декодирования, обработки сцены и других процедур, связанных с пространственным аудиокодированием на основе dirac с использованием диффузной компенсации
RU2772423C1 (ru) Устройство, способ и компьютерная программа для кодирования, декодирования, обработки сцены и других процедур, связанных с пространственным аудиокодированием на основе dirac с использованием генераторов компонент низкого порядка, среднего порядка и высокого порядка

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230309

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230908

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240308

R150 Certificate of patent or registration of utility model

Ref document number: 7453997

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150