JP2021521681A - オーディオ・レンダリングのための事前レンダリングされた信号のための方法、装置およびシステム - Google Patents

オーディオ・レンダリングのための事前レンダリングされた信号のための方法、装置およびシステム Download PDF

Info

Publication number
JP2021521681A
JP2021521681A JP2020555105A JP2020555105A JP2021521681A JP 2021521681 A JP2021521681 A JP 2021521681A JP 2020555105 A JP2020555105 A JP 2020555105A JP 2020555105 A JP2020555105 A JP 2020555105A JP 2021521681 A JP2021521681 A JP 2021521681A
Authority
JP
Japan
Prior art keywords
audio
rendering
elements
effective
rendering mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020555105A
Other languages
English (en)
Other versions
JP7371003B2 (ja
Inventor
テレンティフ,レオン
フェルシュ,クリストフ
フィッシャー,ダニエル
Original Assignee
ドルビー・インターナショナル・アーベー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ドルビー・インターナショナル・アーベー filed Critical ドルビー・インターナショナル・アーベー
Publication of JP2021521681A publication Critical patent/JP2021521681A/ja
Priority to JP2023179225A priority Critical patent/JP2024012333A/ja
Application granted granted Critical
Publication of JP7371003B2 publication Critical patent/JP7371003B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/01Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/15Aspects of sound capture and related signal processing for recording or reproduction

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Stereophonic System (AREA)

Abstract

本開示は、一つまたは複数のレンダリング・ツールを有するオーディオ・レンダラーを含むデコーダによって、ビットストリームからオーディオ・シーン・コンテンツをデコードする方法に関する。前記ビットストリームを受領する段階と;前記ビットストリームからオーディオ・シーンの記述をデコードする段階と;前記オーディオ・シーンの記述から一つまたは複数の有効オーディオ要素を決定する段階と;前記オーディオ・シーンの記述から、前記一つまたは複数の有効オーディオ要素の有効オーディオ要素位置を示す有効オーディオ要素情報を決定する段階と;前記ビットストリームからレンダリング・モード指示をデコードする段階であって、前記レンダリング・モード指示は、前記一つまたは複数の有効オーディオ要素が事前レンダリングされたオーディオ要素から得られた音場を表わし、所定のレンダリング・モードを使用してレンダリングされるべきであるかどうかを示す、段階と;前記レンダリング・モード指示が、前記一つまたは複数の有効オーディオ要素が事前レンダリングされたオーディオ要素から得られた音場を表わし、所定のレンダリング・モードを使用してレンダリングされるべきであることを示すことに応答して、前記一つまたは複数の有効オーディオ要素を前記所定のレンダリング・モードを用いてレンダリングする段階とを含み、前記所定のレンダリング・モードを使用して前記一つまたは複数の有効オーディオ要素をレンダリングすることは、前記有効オーディオ要素情報を考慮に入れ、前記所定のレンダリング・モードは、レンダリング出力に対するオーディオ・シーンの音響環境の影響を制御するための前記レンダリング・ツールの所定の構成を定義する。

Description

関連出願への相互参照
本願は、次の優先権出願の優先権を主張する:米国仮出願第62/656,163号(整理番号:D18040USP1)、2018年4月11日出願、および米国仮出願第62/755,957号(整理番号:D18040USP2)、2018年11月5日出願。これらは参照により本明細書に組み込まれる。
技術分野
本開示は、オーディオ・レンダリングのための装置、システムおよび方法を提供することに関する。
図1は、メタデータおよびオーディオ・レンダラー拡張を処理するように構成された例示的なエンコーダを示す。
いくつかの場合、6DoFレンダラーは、仮想現実/拡張現実/混合現実(VR/AR/MR)空間におけるある位置(単数または複数)(領域、軌跡)において、コンテンツ制作者の希望する音場を再生することができない。これは下記の事情のためである:
1.音源およびVR/AR/MR環境を記述する不十分なメタデータ
2.6DoFレンダラーおよびリソースの制限された機能。
(もとのオーディオ源信号とVR/AR/MR環境記述のみに基づいて音場を生成する)ある種の6DoFレンダラーは、以下の理由により、意図される信号を所望の位置に再生できない場合がある:
1.1)VR/AR/MR環境および対応するオーディオ信号を記述するパラメータ化された情報(メタデータ)についてのビットレート制限;
1.2)逆6DoFレンダリングのためのデータが利用可能でないこと(たとえば、一つまたは複数の関心ポイントにおける参照レコーディングが利用可能であるが、この信号を6DoFレンダラーによってどのように再生成するか、およびそのためにどんなデータ入力が必要であるかは不明);
2.1)6DoFレンダラーのデフォルトの(たとえば物理法則に整合する)出力とは異なる可能性のある芸術的意図(たとえば、「芸術的ダウンミックス」概念に似る);
2.2)デコーダ(6DoFレンダラー)実装における機能限界(たとえば、ビットレート、複雑さ、遅延などの制約)。
同時に、VR/AR/MR空間内の所与の位置(単数または複数)について、高いオーディオ品質(および/または、あらかじめ定義された参照信号に対する忠実度)のオーディオ再生(すなわち、6DoFレンダラー出力)を要求することがある。たとえば、これは、3DoF/3DoF+の互換性制約条件、または6DoFレンダリングの(たとえば、「ベースライン」モードとVR/AR/MR幾何構成の影響を考慮しない「低パワー」モードの間の)種々の処理モードに対する互換性要求のために必要とされることがありうる。
このように、VR/AR/MR空間におけるコンテンツ制作者の所望の音場の再生を改善するエンコード/デコード方法および対応するエンコーダ/デコーダが必要である。
本開示のある側面は、一つまたは複数のレンダリング・ツールをもつオーディオ・レンダラーを含むデコーダによってビットストリームからオーディオ・シーン・コンテンツをデコードする方法に関する。本方法は、ビットストリームを受領することを含んでいてもよい。本方法は、ビットストリームからオーディオ・シーンの記述をデコードすることをさらに含んでいてもよい。オーディオ・シーンは、たとえばVR/AR/MR音響環境のような音響環境を含んでいてもよい。本方法は、オーディオ・シーンの記述から一つまたは複数の有効オーディオ要素を決定することをさらに含んでいてもよい。本方法は、オーディオ・シーンの記述から、前記一つまたは複数の有効オーディオ要素の有効オーディオ要素位置を示す有効オーディオ要素情報を決定することをさらに含んでいてもよい。本方法は、ビットストリームからレンダリング・モード指示をデコードすることをさらに含んでいてもよい。レンダリング・モード指示は、前記一つまたは複数の有効オーディオ要素が事前レンダリングされたオーディオ要素から得られた音場を表わし、所定のレンダリング・モードを使用してレンダリングされるべきであるかどうかを示してもよい。本方法は、さらに、前記レンダリング・モード指示が、前記一つまたは複数の有効オーディオ要素が事前レンダリングされたオーディオ要素から得られた音場を表わし、所定のレンダリング・モードを使用してレンダリングされるべきであることを示すことに応答して、前記一つまたは複数の有効オーディオ要素を前記所定のレンダリング・モードを用いてレンダリングすることを含んでいてもよい。前記所定のレンダリング・モードを使用して前記一つまたは複数の有効オーディオ要素をレンダリングすることは、前記有効オーディオ要素情報を考慮に入れてもよい。前記所定のレンダリング・モードは、レンダリング出力に対するオーディオ・シーンの音響環境の影響を制御するためのレンダリング・ツールの所定の構成を定義してもよい。前記有効オーディオ要素は、たとえば、参照位置にレンダリングされてもよい。前記所定のレンダリング・モードは、ある種のレンダリング・ツールを有効または無効にしてもよい。また、前記所定のレンダリング・モードは、前記一つまたは複数の有効オーディオ要素についての音響効果を高めることができる(たとえば、人工音響を加える)。
前記一つまたは複数の有効オーディオ要素は、たとえばエコー、残響、および音響隠蔽のような音響環境の影響を、いわばカプセル化する。これは、デコーダにおいて特に単純なレンダリング・モード(すなわち、前記所定のレンダリング・モード)の使用を可能にする。同時に、芸術的意図を保存することができ、ユーザー(聴取者)は、低パワー・デコーダであっても、豊富な没入的音響経験を提供されることができる。さらに、デコーダのレンダリング・ツールは、音響効果の追加的な制御を提供するレンダリング・モード指示に基づいて個別に構成されることができる。音響環境の影響をカプセル化することにより、最終的に、音響環境を示すメタデータの効率的な圧縮が可能になる。
いくつかの実施形態では、本方法は、さらに、音響環境における聴取者の頭部の位置を示す聴取者位置情報、および/または音響環境における聴取者の頭部の配向を示す聴取者配向情報を得ることを含んでいてもよい。対応するデコーダは、聴取者位置情報および/または聴取者配向情報を受領するためのインターフェースを含んでいてもよい。次いで、所定のレンダリング・モードを使用して前記一つまたは複数の有効オーディオ要素をレンダリングすることは、聴取者位置情報および/または聴取者配向情報をさらに考慮に入れてもよい。この追加情報を参照することにより、ユーザーの音響体験は、より没入的で意味のあるものとなりうる。
いくつかの実施形態では、有効オーディオ要素情報は、一つまたは複数の有効オーディオ要素のそれぞれの音放射パターンを示す情報を含んでいてもよい。その場合、前記所定のレンダリング・モードを使用して前記一つまたは複数の有効オーディオ要素をレンダリングすることは、前記一つまたは複数の有効オーディオ要素のそれぞれの音放射パターンを示す情報をさらに考慮に入れてもよい。たとえば、それぞれの有効オーディオ要素の音放射パターンと、それぞれの有効オーディオ要素と聴取者位置との間の相対配置とに基づいて減衰因子が計算されてもよい。放射パターンを考慮に入れることによって、ユーザーの音響経験は、より没入的で意味のあるものとなりうる。
いくつかの実施形態では、前記所定のレンダリング・モードを使用して前記一つまたは複数の有効オーディオ要素をレンダリングすることは、聴取者位置と前記一つまたは複数の有効オーディオ要素の有効オーディオ要素位置との間のそれぞれの距離に従って、音減衰モデリングを適用してもよい。すなわち、前記所定のレンダリング・モードは、音響環境におけるいかなる音響要素も考慮せず、(空の空間における)音減衰モデリングを適用する(だけ)でもよい。これは、低パワー・デコーダでも適用できる単純なレンダリング・モードを定義する。加えて、音指向性モデリングが、たとえば前記一つまたは複数の有効オーディオ要素の音放射パターンに基づいて適用されてもよい。
いくつかの実施形態では、少なくとも2つの有効オーディオ要素が、前記オーディオ・シーンの記述から決定されてもよい。その際、前記レンダリング・モード指示は、前記少なくとも2つの有効オーディオ要素のそれぞれについて、それぞれの所定のレンダリング・モードを示してもよい。さらに、本方法は、それぞれの所定のレンダリング・モードを使用して、前記少なくとも2つの有効オーディオ要素をレンダリングすることを含んでいてもよい。それぞれの所定のレンダリング・モードを使用して各有効オーディオ要素をレンダリングすることは、その有効オーディオ要素の有効オーディオ要素情報を考慮に入れてもよい。さらに、その有効オーディオ要素についての所定のレンダリング・モードは、その有効オーディオ要素についてのレンダリング出力に対するオーディオ・シーンの音響環境の影響を制御するためのレンダリング・ツールのそれぞれの所定の構成を定義してもよい。それにより、個々の有効オーディオ要素に適用される音響効果に対する追加的な制御が提供でき、こうしてコンテンツ制作者の芸術的意図に対する非常に密接なマッチが可能になる。
いくつかの実施形態では、本方法は、前記オーディオ・シーンの記述から一つまたは複数のもとのオーディオ要素を決定することをさらに含んでいてもよい。本方法は、前記オーディオ・シーンの記述から、前記一つまたは複数のオーディオ要素のオーディオ要素位置を示すオーディオ要素情報を決定することをさらに含んでいてもよい。本方法は、さらに、前記一つまたは複数の有効オーディオ要素について使用される所定のレンダリング・モードとは異なる前記一つまたは複数のオーディオ要素についてのレンダリング・モードを使用して、前記一つまたは複数のオーディオ要素をレンダリングすることを含んでいてもよい。前記一つまたは複数のオーディオ要素についてのレンダリング・モードを使用して前記一つまたは複数のオーディオ要素をレンダリングすることは、前記オーディオ要素情報を考慮に入れてもよい。前記レンダリングは、レンダリング出力に対する音響環境の影響をさらに考慮に入れてもよい。よって、音響環境の影響をカプセル化する有効オーディオ要素が、たとえば単純レンダリング・モードを用いてレンダリングされることができ、一方、(もとの)オーディオ要素は、より洗練された、たとえば参照の、レンダリング・モードを用いてレンダリングできる。
いくつかの実施形態では、本方法は、前記所定のレンダリング・モードが使用される聴取者位置領域を示す聴取者位置領域情報を取得することをさらに含んでいてもよい。前記聴取者位置領域情報は、たとえば、前記ビットストリームにおいてエンコードされてもよい。それにより、前記所定のレンダリング・モードは、有効オーディオ要素がもとのオーディオ・シーンの(たとえば、もとのオーディオ要素の)意味のある表現を提供する聴取者位置領域についてのみ使用されることを保証できる。
いくつかの実施形態では、前記レンダリング・モード指示によって示される所定のレンダリング・モードは、聴取者位置に依存してもよい。さらに、本方法は、前記聴取者位置領域情報によって示される聴取者位置領域について、前記レンダリング・モード指示によって示されるその所定のレンダリング・モードを使用して、前記一つまたは複数の有効オーディオ要素をレンダリングすることを含んでいてもよい。すなわち、レンダリング・モード指示は、異なる聴取者位置領域について異なる(所定の)レンダリング・モードを示してもよい。
本開示の別の側面は、オーディオ・シーン・コンテンツを生成する方法に関する。本方法は、オーディオ・シーンからの捕捉された信号を表す一つまたは複数のオーディオ要素を取得することを含んでいてもよい。本方法は、生成される一つまたは複数の有効オーディオ要素の有効オーディオ要素位置を示す有効オーディオ要素情報を得ることをさらに含んでいてもよい。本方法は、さらに、捕捉された信号が捕捉された位置と前記一つまたは複数の有効オーディオ要素の有効オーディオ要素位置との間の距離に従って音減衰モデリングを適用することによって、捕捉された信号を表わす前記一つまたは複数のオーディオ要素から前記一つまたは複数の有効オーディオ要素を決定することを含んでいてもよい。
この方法により、参照位置または捕捉位置にレンダリングされると、もとのオーディオ・シーンから発するであろう音場の、知覚的に近い近似を与えるオーディオ・シーン・コンテンツが生成できる。しかしながら、このオーディオ・シーン・コンテンツは、参照位置または捕捉位置とは異なる聴取者位置にレンダリングされることができ、よって、没入的な音響体験を許容する。
本開示の別の側面は、オーディオ・シーン・コンテンツをビットストリームにエンコードする方法に関する。本方法は、オーディオ・シーンの記述を受領することを含んでいてもよい。オーディオ・シーンは、音響環境と、それぞれのオーディオ要素位置にある一つまたは複数のオーディオ要素とを含んでいてもよい。本方法は、前記一つまたは複数のオーディオ要素からそれぞれの有効オーディオ要素位置における一つまたは複数の有効オーディオ要素を決定することをさらに含んでいてもよい。この決定は、レンダリング出力に対する音響環境の影響を考慮に入れない(たとえば、空の空間における距離減衰モデリングを適用する)レンダリング・モードを使用して、それぞれの有効オーディオ要素位置での前記一つまたは複数の有効オーディオ要素を参照位置にレンダリングすることにより、レンダリング出力に対する音響環境の影響を考慮に入れる参照レンダリング・モードを使用して、それぞれのオーディオ要素位置での前記一つまたは複数のオーディオ要素を前記参照位置にレンダリングすることから生じるであろう、前記参照位置における参照音場の心理音響学的近似を与えるように実行されてもよい。本方法は、前記一つまたは複数の有効オーディオ要素の有効オーディオ要素位置を示す有効オーディオ要素情報を生成することをさらに含んでいてもよい。本方法は、さらに、前記一つまたは複数の有効オーディオ要素が、事前レンダリングされたオーディオ要素から得られた音場を表わし、デコーダにおけるレンダリング出力に対する音響環境の影響を制御するためのデコーダのレンダリング・ツールの所定の構成を規定する所定のレンダリング・モードを使用してレンダリングされるべきであることを示すレンダリング・モード指示を生成することを含んでいてもよい。本方法は、さらに、前記一つまたは複数のオーディオ要素、前記オーディオ要素位置、前記一つまたは複数の有効オーディオ要素、前記有効オーディオ要素情報、および前記レンダリング・モード指示をビットストリームにエンコードすることを含んでいてもよい。
前記一つまたは複数の有効オーディオ要素は、たとえばエコー、残響、および音響隠蔽のような、音響環境の影響をいわばカプセル化する。これは、デコーダにおいて特に単純なレンダリング・モード(すなわち、前記所定のレンダリング・モード)の使用を可能にする。同時に、芸術的意図を保存することができ、ユーザー(聴取者)は、低パワー・デコーダであっても、豊富な没入的音響経験を提供されることができる。さらに、デコーダのレンダリング・ツールは、音響効果の追加的な制御を提供するレンダリング・モード指示に基づいて個別に構成できる。音響環境の影響をカプセル化することにより、最終的に、音響環境を示すメタデータの効率的な圧縮が可能になる。
いくつかの実施形態では、本方法は、さらに、音響環境における聴取者の頭部の位置を示す聴取者位置情報、および/または音響環境における聴取者の頭部の配向を示す聴取者配向情報を得ることを含んでいてもよい。本方法は、さらに、聴取者位置情報および/または聴取者配向情報をビットストリームにエンコードすることを含んでいてもよい。
いくつかの実施形態では、前記有効オーディオ要素情報は、前記一つまたは複数の有効オーディオ要素のそれぞれの音放射パターンを示す情報を含むように生成されてもよい。いくつかの実施形態では、少なくとも2つの有効オーディオ要素が生成され、ビットストリームにエンコードされてもよい。その際、レンダリング・モード指示は、前記少なくとも2つの有効オーディオ要素のそれぞれについて、それぞれの所定のレンダリング・モードを示してもよい。
いくつかの実施形態では、本方法は、前記所定のレンダリング・モードが使用される聴取者位置領域を示す聴取者位置領域情報を取得することをさらに含んでいてもよい。本方法は、さらに、聴取者位置領域情報をビットストリームにエンコードすることを含んでいてもよい。
いくつかの実施形態では、レンダリング・モード指示によって示される所定のレンダリング・モードは、聴取者位置に依存してもよく、そのため、レンダリング・モード指示は、複数の聴取者位置のそれぞれについてそれぞれの所定のレンダリング・モードを示す。
本開示の別の側面は、プロセッサのための命令を記憶しているメモリに結合されたプロセッサを含むオーディオ・デコーダに関する。プロセッサは、上記の諸側面または実施形態のそれぞれによる方法を実行するように適応されてもよい。
本開示の別の側面は、プロセッサのための命令を記憶しているメモリに結合されたプロセッサを含むオーディオ・エンコーダに関する。プロセッサは、上記の諸側面または実施形態のそれぞれによる方法を実行するように構成されてもよい。
本開示のさらなる側面は、対応するコンピュータ・プログラムおよびコンピュータ可読記憶媒体に関する。
方法ステップおよび装置の特徴は、多くの仕方で交換されうることが理解されるであろう。特に、開示された方法の詳細は、当業者が理解するように、方法の一部または全部のステップを実行するように適応された装置として実装されることができ、その逆も可能である。特に、方法に関してなされたそれぞれの陳述は、対応する装置にも同様に適用され、その逆も成り立つことが理解される。
本開示の例示的な実施形態が、添付の図面を参照して以下に説明される。ここで、同様の参照番号は、同様のまたは類似の要素を示す。
エンコーダ/デコーダ・システムの一例を概略的に示す図である。 オーディオ・シーンの例を概略的に示す。 オーディオ・シーンの音響環境における位置の例を概略的に示す。 本開示の実施形態によるエンコーダ/デコーダ・システムの例を概略的に示す。 本開示の実施形態によるエンコーダ/デコーダ・システムの別の例を概略的に示す。 本開示の実施形態によるオーディオ・シーン・コンテンツをエンコードする方法の例を概略的に示すフローチャートである。 本開示の実施形態によるオーディオ・シーン・コンテンツをデコードする方法の例を概略的に示すフローチャートである。 本開示の実施形態によるオーディオ・シーン・コンテンツを生成する方法の例を概略的に示すフローチャートである。 図8の方法を実行することができる環境の例を概略的に示す。 本開示の実施形態によるデコーダの出力を試験するための環境の例を概略的に示す。 本開示の実施形態によるビットストリーム内で転送されるデータ要素の例を概略的に示す。 オーディオ・シーンを参照して、種々のレンダリング・モードの例を概略的に示す。 オーディオ・シーンを参照して、本開示の実施形態によるエンコーダおよびデコーダ処理の例を概略的に示す。 本開示の実施形態による、有効オーディオ要素を異なる聴取者位置にレンダリングする例を概略的に示す。 本開示の実施形態による、音響環境におけるオーディオ要素、有効オーディオ要素、および聴取者位置の例を概略的に示す。
上述のように、本開示における同一または同様の参照番号は、同一または同様の要素を示し、その繰り返しの説明は、簡潔さの理由から省略されることがある。
本開示は、VR/AR/MRレンダラーまたはオーディオ・レンダラー(たとえば、そのレンダリングがMPEGオーディオ標準と互換性があるオーディオ・レンダラー)に関する。本開示は、さらに、エンコーダが事前に定義した3DoF+領域(単数または複数)内の音場の品質およびビットレート効率の良い表現を提供する、芸術的な事前レンダリング概念に関する。
一例では、6DoFオーディオ・レンダラーは、特定の位置(単数または複数)における参照信号(音場)へのマッチを出力してもよい。6DoFオーディオ・レンダラーは、VR/AR/MR関連メタデータをMPEG-H 3Dオーディオ・レンダラー入力フォーマットなどのネイティブ・フォーマットに変換することを拡張してもよい。
ねらいは、3DoF位置(単数または複数)でのあらかじめ定義された参照信号としてオーディオ出力を生成するために、標準準拠の(たとえば、MPEG規格に準拠の、または、将来のMPEG規格に準拠する)オーディオ・レンダラーを提供することである。
そのような要件をサポートするためのストレートなアプローチは、あらかじめ定義された(事前レンダリングされた)信号(単数または複数)をデコーダ/レンダラー側に直接転送することであろう。このアプローチには次のような明らかな欠点がある:
1.ビットレートの増加(すなわち、もとのオーディオ源信号に加えて、事前レンダリングされた信号(単数または複数)が送られる);
2.限られた妥当性(すなわち、事前レンダリングされた信号(単数または複数)は3DoF位置(単数または複数)についてのみ有効である)。
大まかに言えば、本開示は、6DoFレンダリング機能を提供するために、そのような信号(単数または複数)を効率的に生成、エンコード、デコード、およびレンダリングすることに関する。よって、本開示は、以下を含む、前述の欠点を克服する方法を記述する:
1.もとのオーディオ源信号の代わりに(またはそれに対する相補的な追加として)事前レンダリングされた信号を使用すること;
2.高レベルの音場近似を保存することにより、3DoF位置(単数または複数)から事前レンダリングされた信号(単数または複数)についての3DoF+領域までの適用可能範囲の増大(6DoFレンダリングの使用)。
本開示が適用可能な例示的なシナリオが図2に示される。図2は、例示的な空間、たとえば、エレベーターおよび聴取者を示す。一例では、聴取者は、そのドアを開閉するエレベーターの前に立っていてもよい。エレベーターのかごの中には、何人かの話している人々と周囲の音楽がある。聴取者は動き回ることができるが、エレベーターのキャビンにはいることはできない。図2は、エレベーター・システムの平面図および正面図である。
このように、図2のエレベーターおよび音源(話している人々、周囲の音楽)は、オーディオ・シーンを定義すると言える。
一般に、本開示のコンテキストにおけるオーディオ・シーン(audio scene)は、シーン内の音をレンダリングするために必要なすべてのオーディオ要素、音響要素および音響環境、すなわち、オーディオ・レンダラー(たとえば、MPEG-Iオーディオ・レンダラー)によって必要とされる入力データを意味すると理解される。本開示の文脈において、オーディオ要素(audio element)は、一つまたは複数のオーディオ信号および関連するメタデータを意味すると理解される。オーディオ要素は、たとえば、オーディオ・オブジェクト、チャネルまたはHOA信号であってもよい。オーディオ・オブジェクト(audio object)は、オーディオ源の音を再生するための必要な情報を含む、関連する静的/動的メタデータを伴うオーディオ信号を意味すると理解される。音響要素(acoustic element)は、オーディオ要素と相互作用し、ユーザーの位置および配向に基づいてオーディオ要素のレンダリングに影響を与える、空間内の物理オブジェクトを意味すると理解される。音響要素は、オーディオ・オブジェクトとメタデータを共有してもよい(たとえば、位置と配向)。音響環境(acoustic environment)は、レンダリングされるべき仮想シーン、たとえば、部屋または局所の音響特性を記述するメタデータを意味すると理解される。
そのようなシナリオ(または実際には他の任意のオーディオ・シーン)について、オーディオ・レンダラーが、少なくとも参照位置でもとの音場の忠実な表現である、芸術的意図を満たす、および/またはそのレンダリングがオーディオ・レンダラーの(限られた)レンダリング能力で実施できるようなオーディオ・シーンの音場表現をレンダリングできるようにすることが望ましい。さらに、エンコーダからデコーダへのオーディオ・コンテンツの伝送におけるビットレートの制限があればそれを満たすことが望ましい。
図3は、聴取環境に関連したオーディオ・シーンの概要を概略的に示す。オーディオ・シーンは、音響環境100を含む。音響環境100は、それぞれの位置にある一つまたは複数のオーディオ要素102を含む。前記一つまたは複数のオーディオ要素は、前記一つまたは複数のオーディオ要素の位置と必ずしも等しくないそれぞれの位置において、一つまたは複数の有効オーディオ要素101を生成するために使用されてもよい。たとえば、オーディオ要素の所与の集合について、有効オーディオ要素の位置は、それらのオーディオ要素の位置の中心(たとえば、重心)に設定されてもよい。生成された有効オーディオ要素(effective audio element)は、該有効オーディオ要素を、所定のレンダリング機能(たとえば、空の空間において距離減衰を適用するだけの単純なレンダリング機能)を用いて、聴取者位置領域110内の参照位置111にレンダリングすることが、参照レンダリング機能(たとえば、音響要素(たとえば、エコー、残響、隠蔽など)を含む音響環境の特性(たとえば、インパクト)を考慮に入れるレンダリング機能)を用いてオーディオ要素102をレンダリングすることから生じるであろう、参照位置111における音場と(実質的に)知覚的に等価な音場を生じる、という特性を有していてもよい。当然のことながら、いったん生成されると、有効オーディオ要素101は、所定のレンダリング機能を使用して、参照位置111とは異なる聴取者位置領域110内の聴取者位置112にもレンダリングされうる。聴取者位置は、有効オーディオ要素101の位置から距離103のところにあってもよい。オーディオ要素102から有効オーディオ要素101を生成するための一例を、のちに、より詳細に説明する。
いくつかの実施形態では、有効オーディオ要素102は、代替的に、聴取者位置領域110内の捕捉位置で捕捉される一つまたは複数の捕捉された信号120に基づいて決定されてもよい。たとえば、音楽演奏の聴衆のうちのユーザーは、ステージ上のオーディオ要素(たとえば、ミュージシャン)から発される音を捕捉してもよい。次いで、有効オーディオ要素の所望の位置(たとえば、有効オーディオ要素101と捕捉位置との間の距離121を、可能性としては有効オーディオ要素101と捕捉位置との間の距離ベクトルの方向を示す角度との関連で指定することなどによる、捕捉位置に対する位置)が与えられて、有効オーディオ要素101は、捕捉された信号120に基づいて生成できる。生成された有効オーディオ要素101は、所定のレンダリング機能(たとえば、空の空間における距離減衰を適用するだけの単純なレンダリング機能)を用いて、有効オーディオ要素101を参照位置111(必ずしも捕捉位置と等しくない)にレンダリングすることが、もとのオーディオ要素102(たとえば、ミュージシャン)から発した参照位置111における音場と(実質的に)知覚的に等価な音場を与えるような特性を有していてもよい。そのような使用事例の例が、のちにより詳細に説明される。
特に、参照位置111は、いくつかの場合には、捕捉位置と同じであってもよく、参照信号(すなわち、参照位置111における信号)は、捕捉信号120と等しくてもよい。これは、ユーザーがアバター頭内レコーディング・オプションを使用できるVR/AR/MR用途については有効な想定である。現実世界のアプリケーションでは、この想定は有効ではないことがある。なぜなら、参照受領部はユーザーの耳であり、信号捕捉装置(たとえば、携帯電話またはマイクロフォン)はユーザーの耳からかなり遠く離れていることがあるからである。次に、最初に言及したニーズに対応するための方法および装置について述べる。
図4は、本開示の実施形態によるエンコーダ/デコーダ・システムの例を示す。エンコーダ210(たとえばMPEG-Iエンコーダ)は、オーディオ出力240を生成するためにデコーダ230(たとえばMPEG-Iデコーダ)によって使用できるビットストリーム220を出力する。デコーダ230は、さらに聴取者情報233を受領することができる。聴取者情報233は、必ずしもビットストリーム220に含まれず、任意の源に由来することができる。たとえば、聴取者情報は、頭部追跡装置によって生成および出力され、デコーダ230の(専用の)インターフェースに入力されてもよい。
デコーダ230はオーディオ・レンダラー250を含み、該オーディオ・レンダラー250は一つまたは複数のレンダリング・ツール251を含む。本開示の文脈において、オーディオ・レンダラーは、たとえばMPEG-Iの規範的なオーディオ・レンダリング・モジュールを意味するものと理解され、レンダリング・ツールおよび外部レンダリング・ツールへのインターフェース、ならびに外部リソースのためのシステム層へのインターフェースを含む。レンダリング・ツールは、レンダリングの諸側面、たとえば、部屋モデル・パラメータ化、隠蔽、残響、バイノーラル・レンダリングなどを実行するオーディオ・レンダラーのコンポーネントを意味すると理解される。
レンダラー250は、一つまたは複数の有効オーディオ要素、有効オーディオ要素情報231、およびレンダリング・モード指示232が入力として与えられる。有効オーディオ要素、有効オーディオ要素情報、およびレンダリング・モード指示232は、下記で、より詳細に記載される。有効オーディオ要素情報231およびレンダリング・モード指示232は、ビットストリーム220から導出(たとえば、決定/デコード)されることができる。レンダラー250は、一つまたは複数のレンダリング・ツール251を用いて、有効オーディオ要素および有効オーディオ要素情報に基づいてオーディオ・シーンの表現をレンダリングする。ここで、レンダリング・モード指示232は、一つまたは複数のレンダリング・ツール251が動作するレンダリング・モードを示す。たとえば、ある種のレンダリング・ツール251は、レンダリング・モード指示232に従ってアクティブ化または非アクティブ化されうる。さらに、ある種のレンダリング・ツール251は、レンダリング・モード指示232に従って構成されてもよい。たとえば、ある種のレンダリング・ツール251の制御パラメータは、レンダリング・モード指示232に従って選択(たとえば、設定)されてもよい。
本開示の文脈において、エンコーダ(たとえば、MPEG-Iエンコーダ)は、6DoFメタデータおよび制御データを決定するタスク、有効オーディオ要素を決定するタスク(たとえば、各有効オーディオ要素についてモノラル・オーディオ信号を含む)、有効オーディオ要素についての位置(たとえば、x、y、z)を決定するタスク、およびレンダリング・ツールを制御するためのデータを決定するタスク(たとえば、フラグおよび構成データを有効/無効にするタスク)を有する。レンダリング・ツールを制御するためのデータは、前述のレンダリング・モード指示に対応する、前述のレンダリング・モード指示を含む、または前述のレンダリング・モード指示に含まれることができる。
上記に加えて、本開示の実施形態によるエンコーダは、参照位置111についての参照信号R(存在する場合)に対する、出力信号240の知覚的な差を最小化してもよい。すなわち、デコーダによって使用されるレンダリング・ツール/レンダリング関数F()と、処理された信号Aと、有効オーディオ要素の位置(x,y,z)とについて、エンコーダは次の最適化を実施してもよい:
{x,y,z;F}:||Output(参照位置)(F(x,y,z)(A))−R||知覚的->min
さらに、本開示の実施形態によるエンコーダは、処理された信号Aの「直接」部分をもとのオブジェクト102の推定された位置に割り当ててもよい。デコーダについては、これは、たとえば、該デコーダが単一の捕捉信号120からいくつかの有効オーディオ要素101を再作成することができることを意味する。
いくつかの実施形態では、6DoFのための単純な距離モデリングによって拡張されたMPEG-H 3Dオーディオ・レンダラーが使用されてもよい。ここで、有効オーディオ要素位置は、方位角、仰角、動径、およびレンダリング・ツールF()を用いて表現される。オーディオ要素位置および利得は、手動で(たとえばエンコーダのチューニングによって)または自動で(たとえば力づくの最適化によって)取得されることができる。
図5は、本開示の実施形態によるエンコーダ/デコーダ・システムの別の例を概略的に示す。
エンコーダ210は、オーディオ・シーンAの指示(処理済み信号)を受領し、それが次いで、本開示に記載される仕方でエンコードにかけられる(たとえば、MPEG-Hエンコード)。加えて、エンコーダ210は、音響環境に関する情報を含むメタデータ(たとえば、6DoFメタデータ)を生成してもよい。エンコーダはさらに、可能性としてはメタデータの一部として、デコーダ230のオーディオ・レンダラー250のレンダリング・ツールを構成するためのレンダリング・モード指示を生成してもよい。レンダリング・ツールは、たとえば、有効オーディオ要素についての信号修正ツールを含んでいてもよい。レンダリング・モード指示に依存して、オーディオ・レンダラーの個々のレンダリング・ツールがアクティブ化または非アクティブ化されうる。たとえば、レンダリング・モード指示が有効オーディオ要素がレンダリングされるべきであることを示している場合、他のすべてのレンダリング・ツールが非アクティブ化される一方、信号修正ツールがアクティブ化されてもよい。デコーダ230はオーディオ出力240を出力し、これは、参照レンダリング機能を使用して、もとのオーディオ要素を参照位置111にレンダリングすることから生じる参照信号Rと比較されることができる。オーディオ出力240を参照信号Rと比較するための構成の例が、図10に概略的に示されている。
図6は、本開示の実施形態による、オーディオ・シーン・コンテンツをビットストリームにエンコードする方法600の例を示すフローチャートである。
ステップS610では、オーディオ・シーンの記述が受領される。オーディオ・シーンは、音響環境と、それぞれのオーディオ要素位置にある一つまたは複数のオーディオ要素とを含む。
ステップS620では、それぞれの有効オーディオ要素位置における一つまたは複数の有効オーディオ要素が、前記一つまたは複数のオーディオ要素から決定される。前記一つまたは複数の有効オーディオ要素は、レンダリング出力に対する音響環境の影響を考慮しないレンダリング・モードを用いて、それぞれの有効オーディオ要素位置にある前記一つまたは複数の有効オーディオ要素を参照位置にレンダリングすることによって、レンダリング出力に対する音響環境の影響を考慮した参照レンダリング・モードを用いて、それぞれのオーディオ要素位置にある前記一つまたは複数の(もとの)オーディオ要素を前記参照位置にレンダリングすることによって生じる、前記参照位置における参照音場の心理音響学的近似をもたらすように決定される。音響環境の影響は、エコー、残響、反射などを含みうる。レンダリング出力に対する音響環境の影響を考慮しないレンダリング・モードは、(空の空間における)距離減衰モデリングを適用してもよい。そのような有効オーディオ要素を決定する方法の非限定的な例は、のちにさらに記述される。
ステップS630では、前記一つまたは複数の有効オーディオ要素の有効オーディオ要素位置を示す有効オーディオ要素情報が生成される。
ステップS640では、前記一つまたは複数の有効オーディオ要素が事前レンダリングされたオーディオ要素から得られた音場を表わし、デコーダにおけるレンダリング出力に対する音響環境の影響を制御するためのデコーダのレンダリング・ツールの所定の構成を定義する所定のレンダリング・モードを使用してレンダリングされるべきであることを示すレンダリング・モード指示が生成される。
ステップS650では、前記一つまたは複数のオーディオ要素、前記オーディオ要素位置、前記一つまたは複数の有効オーディオ要素、前記有効オーディオ要素情報、および前記レンダリング・モード指示がビットストリームにエンコードされる。
最も単純な場合、レンダリング・モード指示は、すべての音響(すなわち、音響環境の影響)が前記一つまたは複数の有効オーディオ要素に含まれる(すなわち、カプセル化される)ことを示すフラグであってもよい。よって、レンダリング・モード指示は、デコーダ(またはデコーダのオーディオ・レンダラー)が、(たとえば、距離依存利得の乗算によって)距離減衰のみが適用され、他のすべてのレンダリング・ツールが非アクティブ化される単純なレンダリング・モードを使用するための指示であってもよい。より洗練された場合には、レンダリング・モード指示は、レンダリング・ツールを構成するための一つまたは複数の制御値を含んでいてもよい。これは、個々のレンダリング・ツールのアクティブ化および非アクティブ化を含みうるが、レンダリング・ツールのより粒度の細かい制御も含みうる。たとえば、レンダリング・ツールは、前記一つまたは複数の有効オーディオ要素をレンダリングするときに音響効果を高めるために、前記レンダリング・モード指示によって構成されてもよい。これは、たとえば(たとえば、コンテンツ制作者の)芸術的意図に従って、エコー、残響、反射などの(人工的な)音響効果を加えるために使用されてもよい。
換言すれば、方法600は、オーディオ・データをエンコードする方法に関連してもよく、オーディオ・データは、一つまたは複数の音響要素(たとえば、物理的なオブジェクトの表現)を含む音響環境内のそれぞれのオーディオ要素位置にある一つまたは複数のオーディオ要素を表わす。この方法は、音響環境における有効オーディオ要素位置における有効オーディオ要素を、有効オーディオ要素位置と参照位置との間の距離減衰を考慮するが、音響環境における音響要素を考慮しないレンダリング機能を使用するときに、有効オーディオ要素を参照位置にレンダリングすることが、それぞれのオーディオ要素位置における前記一つまたは複数のオーディオ要素の前記参照位置への参照レンダリングから生じるであろう前記参照位置における参照音場を近似するように決定することを含んでいてもよい。次いで、有効オーディオ要素および有効オーディオ要素位置がビットストリーム中にエンコードされてもよい。
上述の状況では、有効オーディオ要素位置における有効オーディオ要素の決定は、第1のレンダリング機能を用いて、音響環境における参照位置に前記一つまたは複数のオーディオ要素をレンダリングして、それにより、参照位置における参照音場を得る段階であって、第1のレンダリング機能は、音響要素位置と参照位置との間の距離減衰のほかに音響環境における音響要素を考慮に入れる、段階と;参照位置における参照音場に基づいて、音響環境における有効オーディオ要素位置における有効オーディオ要素を、第2のレンダリング機能を用いて有効オーディオ要素を前記参照位置にレンダリングすることが前記参照音場を近似するように、決定する段階であって、前記第2のレンダリング機能は、有効オーディオ要素位置と参照位置との間の距離減衰を考慮に入れるが、音響環境における音響要素は考慮しない、段階とに関わってもよい。
上述の方法600は、聴取者データのない0DoF使用事例に関係していてもよい。一般に、方法600は、「スマート」エンコーダおよび「単純」デコーダの概念をサポートする。
聴取者データに関しては、いくつかの実装における方法600は、音響環境における(たとえば、聴取者位置領域における)聴取者の頭部の位置を示す聴取者位置情報を取得することを含んでいてもよい。追加的または代替的に、方法600は、音響環境における(たとえば、聴取者位置領域における)聴取者の頭部の配向を示す聴取者配向情報を取得することを含んでいてもよい。次いで、聴取者位置情報および/または聴取者配向情報は、ビットストリームにエンコードされてもよい。聴取者位置情報および/または聴取者配向情報は、前記一つまたは複数の有効オーディオ要素をしかるべくレンダリングするためにデコーダによって使用されることができる。たとえば、デコーダは、前記一つまたは複数の有効オーディオ要素を(参照位置ではなく)聴取者の実際の位置にレンダリングすることができる。同様に、特にヘッドフォン・アプリケーションについては、デコーダは、聴取者の頭部の配向に応じて、レンダリングされた音場の回転を実行することができる。
いくつかの実装では、方法600は、前記一つまたは複数の有効オーディオ要素のそれぞれの音放射パターンを示す情報を含むように、前記有効オーディオ要素情報を生成することができる。次いで、この情報は、前記一つまたは複数の有効オーディオ要素をしかるべくレンダリングするためにデコーダによって使用されることができる。たとえば、前記一つまたは複数の有効オーディオ要素をレンダリングするとき、デコーダは、前記一つまたは複数の有効オーディオ要素のそれぞれにそれぞれの利得を適用してもよい。これらの利得は、それぞれの放射パターンに基づいて決定されてもよい。各利得は、それぞれの有効オーディオ要素と聴取者位置(または参照位置へのレンダリングが実行される場合は参照位置)との間の距離ベクトルと、それぞれのオーディオ要素の放射方向を示す放射方向ベクトルとの間の角度に基づいて決定されてもよい。複数の放射方向ベクトルおよび対応する重み付け係数を有する、より複雑な放射パターンについては、利得は、距離ベクトルとそれぞれの放射方向ベクトルとの間の角度に基づいて決定される各利得の重み付けされた和に基づいて決定されてもよい。和における重みは、前記重み付け係数に対応してもよい。放射パターンに基づいて決定された利得は、所定のレンダリング・モードによって適用される距離減衰利得に加えられてもよい。
いくつかの実装では、少なくとも2つの有効オーディオ要素が生成され、ビットストリームに符号化されてもよい。次いで、レンダリング・モード指示は、前記少なくとも2つの有効オーディオ要素のそれぞれについて、それぞれの所定のレンダリング・モードを示してもよい。前記少なくとも2つの所定のレンダリング・モードは、相異なっていてもよい。それにより、たとえばコンテンツ制作者の芸術的意図に従って、異なる有効オーディオ要素について異なる量の音響効果を示すことができる。
いくつかの実装では、方法600は、所定のレンダリング・モードが使用される聴取者位置領域を示す聴取者位置領域情報を得ることをさらに含んでいてもよい。次いで、この聴取者位置領域情報がビットストリーム中にエンコードされることができる。デコーダでは、レンダリングが所望される聴取者位置が、聴取者位置情報によって示される聴取者位置領域内であれば、前記所定のレンダリング・モードが使用されるべきである。そうでなければ、デコーダは、たとえばデフォルトのレンダリング・モードのような、自分が選んだレンダリング・モードを適用することができる。
さらに、レンダリングが望まれる聴取者位置に依存して、異なる所定のレンダリング・モードが予見されてもよい。よって、前記レンダリング・モード指示によって示される前記所定のレンダリング・モードは、聴取者位置に依存してもよく、前記レンダリング・モード指示は、複数の聴取者位置のそれぞれについてそれぞれの所定のレンダリング・モードを示す。同様に、レンダリングが望まれる聴取者位置領域に依存して、異なる所定のレンダリング・モードが予見されてもよい。特に、異なる聴取者位置(または聴取者位置領域)について異なる有効オーディオ要素が存在してもよい。そのようなレンダリング・モード指示を提供することにより、各聴取者位置(または聴取者位置領域)に適用される(人工的な)エコー、残響、反射などの(人工的な)音響の制御が可能になる。
図7は、本開示の実施形態による、デコーダによってビットストリームからオーディオ・シーン・コンテンツをデコードする対応する方法700の例を示すフローチャートである。デコーダは、一つまたは複数のレンダリング・ツールを有するオーディオ・レンダラーを含んでいてもよい。
ステップS710では、ビットストリームが受領される。ステップS720では、オーディオ・シーンの記述がビットストリームからデコードされる。ステップS730では、一つまたは複数の有効オーディオ要素が、オーディオ・シーンの記述から決定される。
ステップS740では、一つまたは複数の有効オーディオ要素の有効オーディオ要素位置を示す有効オーディオ要素情報が、オーディオ・シーンの記述から決定される。
ステップS750では、レンダリング・モード指示がビットストリームからデコードされる。レンダリング・モード指示は、前記一つまたは複数の有効オーディオ要素が事前レンダリングされたオーディオ要素から得られた音場を表わし、所定のレンダリング・モードを使用してレンダリングされるべきであるかどうかを示す。
ステップS760では、前記レンダリング・モード指示が、前記一つまたは複数の有効オーディオ要素が事前レンダリングされたオーディオ要素から得られた音場を表わし、前記所定のレンダリング・モードを使用してレンダリングされるべきであることを示すことに応答して、前記一つまたは複数の有効オーディオ要素が前記所定のレンダリング・モードを使用してレンダリングされる。前記所定のレンダリング・モードを使用して前記一つまたは複数の有効オーディオ要素をレンダリングすることは、前記有効オーディオ要素情報を考慮に入れる。さらに、前記所定のレンダリング・モードは、レンダリング出力に対するオーディオ・シーンの音響環境の影響を制御するための前記レンダリング・ツールの所定の構成を定義する。
いくつかの実装では、方法700は、音響環境における(たとえば、聴取者位置領域における)聴取者の頭部の位置を示す聴取者位置情報、および/または、音響環境における(たとえば、聴取者位置領域における)聴取者の頭部の配向を示す聴取者配向情報を得ることを含んでいてもよい。次いで、前記所定のレンダリング・モードを使用して前記一つまたは複数の有効オーディオ要素をレンダリングすることは、たとえば方法600を参照して上述した仕方で、聴取者位置情報および/または聴取者配向情報をさらに考慮に入れてもよい。対応するデコーダは、聴取者位置情報および/または聴取者配向情報を受信するためのインターフェースを含んでいてもよい。
方法700のいくつかの実装では、有効オーディオ要素情報は、前記一つまたは複数の有効オーディオ要素のそれぞれの音放射パターンを示す情報を含んでいてもよい。前記所定のレンダリング・モードを使用して前記一つまたは複数の有効オーディオ要素をレンダリングすることは、さらに、たとえば方法600を参照して上述した仕方で、前記一つまたは複数の有効オーディオ要素のそれぞれの音放射パターンを示す情報を考慮に入れてもよい。
方法700のいくつかの実装では、前記所定のレンダリング・モードを使用して前記一つまたは複数の有効オーディオ要素をレンダリングすることは、聴取者位置と前記一つまたは複数の有効オーディオ要素の有効オーディオ要素位置との間のそれぞれの距離に応じて、(空の空間における)音減衰モデリングを適用してもよい。そのような所定のレンダリング・モードは、単純レンダリング・モードと呼ばれる。音響環境の影響が前記一つまたは複数の有効オーディオ要素に「カプセル化」されるので、前記単純レンダリング・モード(すなわち、空の空間における距離減衰のみ)を適用することが可能である。そうすることにより、デコーダの処理負荷の一部がエンコーダに委任されることができ、低パワー・デコーダでも芸術的意図に沿った没入的音場のレンダリングを可能にする。
方法700のいくつかの実装では、少なくとも2つの有効オーディオ要素が、オーディオ・シーンの記述から決定されてもよい。その際、レンダリング・モード指示は、前記少なくとも2つの有効オーディオ要素のそれぞれについて、それぞれの所定のレンダリング・モードを示してもよい。そのような状況では、方法700は、それぞれの所定のレンダリング・モードを使用して前記少なくとも2つの有効オーディオ要素をレンダリングすることをさらに含んでいてもよい。それぞれの所定のレンダリング・モードを使用して各有効オーディオ要素をレンダリングすることは、その有効オーディオ要素についての有効オーディオ要素情報を考慮に入れてもよく、その有効オーディオ要素についてのレンダリング・モードは、その有効オーディオ要素についてのレンダリング出力に対するオーディオ・シーンの音響環境の影響を制御するためのレンダリング・ツールのそれぞれの所定の構成を定義してもよい。前記少なくとも2つの所定のレンダリング・モードは、区別されうる。それにより、たとえばコンテンツ制作者の芸術的意図に従って、異なる有効オーディオ要素について異なる音響効果の量を示すことができる。
いくつかの実装では、有効オーディオ要素および(実際の/もとの)オーディオ要素の両方が、デコードされるべきビットストリームにおいてエンコードされてもよい。その際、方法700は、オーディオ・シーンの記述から一つまたは複数のオーディオ要素を決定し、オーディオ・シーンの記述から前記一つまたは複数のオーディオ要素のオーディオ要素位置を示すオーディオ要素情報を決定することを含んでいてもよい。前記一つまたは複数のオーディオ要素のレンダリングは、前記一つまたは複数の有効オーディオ要素に使用される前記所定のレンダリング・モードとは異なる、前記一つまたは複数のオーディオ要素のためのレンダリング・モードを使用して実行される。前記一つまたは複数のオーディオ要素についての前記レンダリング・モードを使用して前記一つまたは複数のオーディオ要素をレンダリングすることは、オーディオ要素情報を考慮に入れてもよい。これにより、(実際の/もとの)オーディオ要素をたとえば前記参照レンダリング・モードでレンダリングしつつ、有効オーディオ要素をたとえば前記単純レンダリング・モードでレンダリングすることができる。また、前記所定のレンダリング・モードは、オーディオ要素のために使用されるレンダリング・モードとは別個に構成されることができる。より一般的には、オーディオ要素および有効オーディオ要素についてのレンダリング・モードは、関連するレンダリング・ツールの異なる構成を含意することがある。オーディオ要素には音響レンダリング(音響環境の影響を考慮に入れる)が適用されてもよく、一方、有効オーディオ要素には、(空の空間における)距離減衰モデリングが、可能性としては人工音響(必ずしもエンコードのために想定される音響環境によって決定されるのではない)と一緒に、適用されてもよい。
いくつかの実装では、方法700は、所定のレンダリング・モードが使用される聴取者位置領域を示す聴取者位置領域情報を得ることをさらに含んでいてもよい。聴取者位置領域内の聴取者位置領域情報によって示される聴取者位置へのレンダリングについては、所定のレンダリング・モードが使用されるべきである。それ以外については、デコーダは、たとえばデフォルトのレンダリング・モードのような、自分が選んだレンダリング・モード(これは実装依存であってよい)を適用することができる。
方法700のいくつかの実装では、レンダリング・モード指示によって示される所定のレンダリング・モードは、聴取者位置(または聴取者位置領域)に依存してもよい。次いで、デコーダは、聴取者位置領域情報によって示される聴取者位置領域についてのレンダリング・モード指示によって示されるその所定のレンダリング・モードを使用して、前記一つまたは複数の有効オーディオ要素をレンダリングすることを実行してもよい。
図8は、オーディオ・シーン・コンテンツを生成する方法800の例を示すフローチャートである。
ステップS810では、オーディオ・シーンからの捕捉された信号を表わす一つまたは複数のオーディオ要素が得られる。これは、たとえば、レコーディング機能を有するマイクロフォンまたはモバイルデバイスなどを使用する音捕捉によって行なうことができる。
ステップS820では、生成される一つまたは複数の有効オーディオ要素の有効オーディオ要素位置を示す有効オーディオ要素情報が得られる。有効オーディオ要素位置は、推定されてもよく、またはユーザー入力として受領されてもよい。
ステップS830において、前記一つまたは複数の有効オーディオ要素は、捕捉された信号が捕捉された位置と前記一つまたは複数の有効オーディオ要素の有効オーディオ要素位置との間の距離に従う音減衰モデリングを適用することによって、捕捉された信号を表わす前記一つまたは複数のオーディオ要素から決定される。
方法800は、離散的な捕捉位置(図3参照)からのオーディオ要素102を表わす捕捉されたオーディオ信号120の現実世界でのA(/V)レコーディングを可能にする。本開示による方法および装置は、聴取者位置領域110内の参照位置111または他の位置112および配向(すなわち、6DoFフレームワークにおける配向)からの(たとえば、3DoF+、3DoF、0DoFプラットフォームを使用して、可能な限り有意義なユーザー経験を有する)この素材の消費を可能にする。これは図9に概略的に示される。
オーディオ・シーン内の(実際の/もとの)オーディオ要素から有効オーディオ要素を決定するための一つの非限定的な例を次に述べる。
上述したように、本開示の実施形態は、あらかじめ定義された参照信号(これは音波伝搬の物理法則と整合していてもいなくてもよい)に対応する仕方で「3DoF位置」での音場を再現することに関する。この音場は、すべてのもとの「オーディオ源」(オーディオ要素)に基づき、対応する音響環境(たとえば、VR/AR/MR環境、すなわち、「ドア」、「壁」など)の複雑な(および可能性としては動的に変化する)幾何構成の影響を反映するべきである。たとえば、図2の例を参照するに、音場は、エレベーター内のすべての音源(オーディオ要素)に関係してもよい。
さらに、「6DoF空間」のための高レベルのVR/AR/MR没入を提供するために、対応するレンダラー(たとえば、6DoFレンダラー)出力音場は、十分に良好に再現されるべきである。
よって、本開示の実施形態は、いくつかのもとのオーディオ・オブジェクト(オーディオ要素)をレンダリングし、複雑な音響環境の影響を考慮する代わりに、エンコーダで事前レンダリングされ、全体的なオーディオ・シーンを表わす(すなわち、オーディオ・シーンの音響環境の影響を考慮に入れる)仮想オーディオ・オブジェクト(有効オーディオ要素)を導入することに関する。音響環境のすべての効果(たとえば、音響隠蔽、残響、直接反射、エコーなど)は、エンコードされてレンダラー(たとえば、6DoFレンダラー)に伝送される仮想オブジェクト(有効オーディオ要素)波形において直接捕捉される。
対応するデコーダ側のレンダラー(たとえば、6DoFレンダラー)は、そのようなオブジェクト・タイプ(要素タイプ)については、6DoF空間全体で、「単純レンダリング・モード」(VR/AR/MR環境を考慮しない)で動作してもよい。単純レンダリング・モード(上述の所定のレンダリング・モードの一例として)は、(空の空間における)距離減衰を考慮に入れるだけであってもよく、残響、エコー、直接反射、音響隠蔽などのような音響環境の影響(たとえば、音響環境における音響要素の影響)を考慮に入れなくてもよい。
あらかじめ定義された参照信号の適用可能範囲を拡張するために、仮想オブジェクト(単数または複数)(有効オーディオ要素)は、音響環境(VR/AR/MR空間)内の特定の位置に(たとえば、もとのオーディオ・シーンまたはもとのオーディオ要素の音強度の中心に)配置されてもよい。この位置は、エンコーダにおいて逆オーディオ・レンダリングによって自動的に決定される、またはコンテンツ・プロバイダーによって手動で指定されることができる。この場合、エンコーダが転送するのは下記のみである:
1.b)仮想オーディオ・オブジェクトの「事前レンダリング・タイプ」(または一般的には前記レンダリング・モード指示)を信号伝達するフラグ;
2.b)少なくとも事前レンダリングされた参照(たとえば、モノ・オブジェクト)から得られた仮想オーディオ・オブジェクト信号(有効オーディオ要素);および
3.b)「3DoF位置」の座標および「6DoF空間」の記述(たとえば、有効オーディオ要素位置を含む有効オーディオ要素情報)。
従来の手法についてのあらかじめ定義された参照信号は、提案される手法についての仮想オーディオ・オブジェクト信号(2.b)と同じではない。すなわち、仮想オーディオ・オブジェクト信号(2.b)の「単純な」6DoFレンダリングが、与えられた「3DoF位置」(単数または複数)についてできるだけ良好に、あらかじめ定義された参照信号を近似すべきである。
一例では、以下のエンコード方法が、オーディオ・エンコーダによって実行されてもよい:
1.所望の「3DoF位置」(単数または複数)および対応する「3DoF+領域」(単数または複数)(たとえば、レンダリングが所望される聴取者位置および/または聴取者位置領域)の決定
2.「3DoF位置」(単数または複数)についての参照レンダリング(または直接レコーディング)
3.逆オーディオ・レンダリング、「3DoF位置」(単数または複数)における得られた参照信号の最良の可能な近似をもたらす仮想オーディオ・オブジェクト(単数または複数)(有効オーディオ要素)の信号(単数または複数)および位置(単数または複数)の決定
4.結果として生じる仮想オーディオ・オブジェクト(単数または複数)(有効オーディオ要素)とその位置(単数または複数)を、対応する6DoF空間(音響環境)の信号伝達および6DoFレンダラーの「単純レンダリング・モード」を可能にする「事前レンダリング・オブジェクト」属性(レンダリング・モード指示)とともにエンコードすること。
逆オーディオ・レンダリング(上記項目3参照)の複雑さは、6DoFレンダラーの「単純レンダリング・モード」の6DoF処理の複雑さに直接相関する。さらに、この処理は、計算パワーの点で制限がより少ないと想定されるエンコーダ側で発生する。
ビットストリームにおいて転送される必要のあるデータ要素の例が、図11のAに概略的に示されている。図11Bは、従来のエンコード/デコード・システムにおいてビットストリーム内で転送されるデータ要素を概略的に示す。
図12は、直接的な「単純」および「参照」レンダリング・モードの使用事例を示している。図12の左側は、前述のレンダリング・モードの動作を示し、右側は、(図2の例に基づいて)いずれかのレンダリング・モードを使用して、オーディオ・オブジェクトを聴取者位置にレンダリングすることを概略的に示す。
・「単純レンダリング・モード」は、音響環境(たとえば、音響VR/AR/MR環境)を考慮しないことがある。すなわち、単純レンダリング・モードは、(たとえば、空の空間における)距離減衰のみを考慮してもよい。たとえば、図12の左側の上パネルに示されるように、単純レンダリング・モードでは、Fsimpleは距離減衰のみを考慮し、ドアの開閉(たとえば、図2を参照)のようなVR/AR/MR環境の効果を考慮しない。
・「参照レンダリング・モード」(図12の左側の下パネル)は、VR/AR/MR環境効果の一部または全部を考慮に入れてもよい。
図13は、単純レンダリング・モードの例示的なエンコーダ/デコーダ側処理を示す。左側の上のパネルはエンコーダ処理を示し、左側の下のパネルはデコーダ処理を示す。右側は、聴取者位置でのオーディオ信号の、有効オーディオ要素の位置への逆レンダリングを概略的に示す。
レンダラー(たとえば、6DoFレンダラー)出力は、3DoF位置(単数または複数)における参照オーディオ信号を近似しうる。この近似は、オーディオ・コア・コーダの影響と、オーディオ・オブジェクト集約(すなわち、いくつかの空間的に相異なるオーディオ源(オーディオ要素)の、より少数の仮想オブジェクト(有効オーディオ要素)による表現)の効果とを含みうる。たとえば、近似された参照信号は、6DoF空間における聴取者位置の変化を考慮してもよく、同様に、より少数の仮想オブジェクト(有効オーディオ要素)に基づいて、いくつかのオーディオ源(オーディオ要素)を表わしてもよい。これを図14に概略的に示される。
一例では、図15は、音源/オブジェクト信号(オーディオ要素)101、仮想オブジェクト信号(有効オーディオ要素)100、3DoFにおける所望されるレンダリング出力102
Figure 2021521681
および所望されるレンダリングの近似103
Figure 2021521681
を示す。
さらなる用語は下記を含む:
・3DoF 所与の参照互換位置(単数または複数)∈6DoF空間
・6DoF 任意の許容される位置(単数または複数)∈VR/AR/MRシーン
・Freference(x) エンコーダで決定される参照レンダリング
・Fsimple(x) デコーダで指定される6DoF「単純モード・レンダリング」
・x(NDoF) 3DoF位置/6DoF空間における音場表現
・xreference (3DoF) エンコーダで決定される、3DoF位置(単数または複数)についての参照信号(単数または複数):
・xreference (3DoF):=3DoFについてのFreference(x)
・xreference (6DoF) 一般的参照レンダリング出力
・xreference (6DoF):=6DoFについてのFreference(x)
与えられるもの(エンコーダ側で):
・オーディオ源信号(単数または複数) x
・3DoF位置(単数または複数)についての参照信号(単数または複数) xreference (3DoF)
利用可能なもの(レンダラーで):
・仮想オブジェクト信号(単数または複数) xvirtual
・デコーダ6DoF「単純レンダリング・モード」 6DoFについてのFsimple、∃F-1 simple
問題:下記を提供するxvirtualおよびx(6DoF)を定義する
・3DoFでの所望されるレンダリング出力x(3DoF)→xreference (3DoF)
・所望されるレンダリングの近似
Figure 2021521681
解決策:
Figure 2021521681
提案される手法の次の主な利点が識別できる:
芸術的レンダリング機能サポート:6DoFレンダラーの出力は、任意の(エンコーダ側で既知の)芸術的事前レンダリングされた参照信号に対応することができる。
計算量:6DoFオーディオ・レンダラー(たとえば、MPEG-Iオーディオ・レンダラー)は、複雑な音響VR/AR/MR環境について「単純レンダリング・モード」で動作できる。
符号化効率:この手法については、事前レンダリングされた信号についてのオーディオ・ビットレートは、もとのオーディオ源の数にではなく、3DoF位置の数(より正確には、対応する仮想オブジェクトの数)に比例する。これは、オブジェクトの数が多く、6DoF移動自由度が制限されている場合に非常に有益でありうる。
・あらかじめ決定された位置(単数または複数)におけるオーディオ品質制御:最良の知覚的オーディオ品質が、VR/AR/MR空間における任意の位置および対応する3DoF+領域(単数または複数)についてエンコーダによって明示的に保証されることができる。
本発明は、参照レンダリング/レコーディング(すなわち、「芸術的意図」)概念をサポートする。すなわち、任意の複雑な音響環境(または芸術的レンダリング効果)が、事前レンダリングされたオーディオ信号(単数または複数)によってエンコードされ(かかる信号において送信され)ることができる。
以下の情報は、参照レンダリング/レコーディングを許容するために、ビットストリームにおいて信号伝達されうる:
・事前レンダリングされた信号タイプ・フラグ(単数または複数)。これは、対応する仮想オブジェクトについての音響VR/AR/MR環境の影響を無視した「単純レンダリング・モード」を可能にする。
・仮想オブジェクト信号レンダリングのための適用可能領域(すなわち、6DoF空間)を記述するパラメータ表現。
6DoFオーディオ処理(たとえば、MPEG-Iオーディオ処理)の間に、以下が指定されてもよい:
・いかにして6DoFレンダラーがそのような事前レンダリングされた信号を互いに、また通常の信号と混合するか。
よって、本発明は:
・デコーダで指定される「単純モード・レンダリング」機能(すなわち、Fsimple)の定義に関して一般的である;それは任意の複雑さであってもよいが、デコーダ側で対応する近似が存在するべきである(すなわち、∃Fsimple -1);理想的には、この近似は、数学的に「性質のよい」(well-defined)(たとえば、アルゴリズム的に安定な)ものであるべきである
・一般的な音場および音源表現(およびそれらの組み合わせ):オブジェクト、チャネル、FOA、HOAに拡張可能かつ適用可能である
・(距離減衰モデリングに加えて)オーディオ源指向性の諸側面を考慮することができる
・事前レンダリングされる信号について複数の(重なり合っていてもよい)3DoF位置に適用可能である
・事前レンダリングされた信号が通常の信号(周囲音、オブジェクト、FOA、HOAなど)と混合されるシナリオに適用可能である
・3DoF位置についての参照信号xreference (3DoF)
−コンテンツ制作者側で適用される任意の(任意の複雑さの)「プロダクション・レンダラー」の出力
−実際のオーディオ信号/フィールド・レコーディング(およびその芸術的修正)
として定義し、取得することを許容する。
本開示のいくつかの実施形態は、
Figure 2021521681
に基づいて3DoF位置を決定することに向けられうる。
本明細書に記載される方法およびシステムは、ソフトウェア、ファームウェアおよび/またはハードウェアとして実装されうる。ある種のコンポーネントは、デジタル信号プロセッサまたはマイクロプロセッサ上で動作するソフトウェアとして実装されてもよい。他のコンポーネントは、ハードウェアとして、および/または特定用途向け集積回路として実装されてもよい。上述の方法およびシステムで遭遇する信号は、ランダム・アクセス・メモリまたは光記憶媒体のような媒体に記憶されてもよい。該信号は、電波ネットワーク、衛星ネットワーク、無線ネットワーク、またはインターネットなどの有線ネットワークなどのネットワークを介して転送されてもよい。本明細書に記載される方法およびシステムを利用する典型的な装置は、オーディオ信号を記憶および/またはレンダリングするために使用される可搬式電子装置または他の消費者装置である。
本開示による方法および装置の例示的実装は、以下の箇条書き実施例(enumerated example embodiment、EEE)から明らかになるが、これらは特許請求の範囲ではない。
EEE1は、少なくとも事前レンダリングされた参照信号から得られた仮想オーディオ・オブジェクト信号をエンコードするステップと;3DoF位置および6DoF空間の記述を示すメタデータをエンコードするステップと;エンコードされた仮想オーディオ信号および3DoF位置および6DoF空間の記述を示すメタデータを送信するステップと、を含む、オーディオ・データをエンコードする方法に関する。
EEE2は、EEE1の方法に関し、さらに、前記仮想オーディオ・オブジェクトの事前レンダリングされたタイプの存在を示す信号を送信することを含む。
EEE3は、EEE1またはEEE2の方法に関し、少なくとも事前レンダリングされた参照が、3DoF位置および対応する3DoF+領域の参照レンダリングに基づいて決定される。
EEE4は、EEE1〜EEE3のいずれか1つの方法に関し、前記6DoF空間に対する前記仮想オーディオ・オブジェクトの位置を決定することをさらに含む。
EEE5は、EEE1〜EEE4のいずれか1つの方法に関し、前記仮想オーディオ・オブジェクトの位置が、逆オーディオ・レンダリングまたはコンテンツ・プロバイダーによる手動指定のうちの少なくとも一方に基づいて決定される。
EEE6は、EEE1〜EEE5のいずれか1つの方法に関し、前記仮想オーディオ・オブジェクトは、3DoF位置についてあらかじめ定義された参照信号を近似する。
EEE7は、EEE1〜EEE6のいずれか1つの方法に関し、前記仮想オブジェクトは
Figure 2021521681
に基づいて定義され、ここで、仮想オブジェクト信号はxvirtualであり、デコーダ6DoF「単純レンダリング・モード」
6DoFについてFsimple、∃Fsimple -1
であり、前記仮想オブジェクトは、3DoF位置と前記仮想オブジェクトについての単純レンダリング・モード決定との間の差の絶対値を最小化するように決定される。
EEE8は、仮想オーディオ・オブジェクトをレンダリングする方法に関し、この方法は、前記仮想オーディオ・オブジェクトに基づいて6DoFオーディオ・シーンをレンダリングすることを含む。
EEE9は、EEE8の方法に関し、前記仮想オブジェクトのレンダリングは:
Figure 2021521681
に基づき、ここで、xvirtualは仮想オブジェクト信号に対応し、x(6DoF)は6DoFにおける近似されたレンダリングされたオブジェクトに対応し、Fsimpleはデコーダで指定された単純モード・レンダリング機能に対応する。
EEE10は、EEE8またはEEE9の方法に関し、前記仮想オブジェクトのレンダリングは、前記仮想オーディオ・オブジェクトの事前レンダリングされたタイプを信号伝達するフラグに基づいて実行される。
EEE11は、EEEE8〜EEE10のいずれか1つの方法に関し、さらに、事前レンダリングされた3DoF位置および6DoF空間の記述を示すメタデータを受領することを含み、前記レンダリングは、3DoF位置および6DoF空間の記述に基づく。

Claims (19)

  1. 一つまたは複数のレンダリング・ツールをもつオーディオ・レンダラーを含むデコーダによってビットストリームからオーディオ・シーン・コンテンツをデコードする方法であって、当該方法は:
    前記ビットストリームを受領する段階と;
    前記ビットストリームから音響環境を含むオーディオ・シーンの記述をデコードする段階と;
    前記オーディオ・シーンの記述から一つまたは複数の有効オーディオ要素を決定する段階であって、前記一つまたは複数の有効オーディオ要素は前記音響環境の影響をカプセル化し、前記オーディオ・シーンを表わす一つまたは複数の仮想オーディオ・オブジェクトに対応する、段階と;
    前記オーディオ・シーンの記述から、前記一つまたは複数の有効オーディオ要素の有効オーディオ要素位置を示す有効オーディオ要素情報を決定する段階であって、前記有効オーディオ要素情報は、前記一つまたは複数の有効オーディオ要素のそれぞれの音放射パターンを示す情報を含む、段階と;
    前記ビットストリームからレンダリング・モード指示をデコードする段階であって、前記レンダリング・モード指示は、前記一つまたは複数の有効オーディオ要素が事前レンダリングされたオーディオ要素から得られた音場を表わし、所定のレンダリング・モードを使用してレンダリングされるべきであるかどうかを示す、段階と;
    前記レンダリング・モード指示が、前記一つまたは複数の有効オーディオ要素が事前レンダリングされたオーディオ要素から得られた音場を表わし、所定のレンダリング・モードを使用してレンダリングされるべきであることを示すことに応答して、前記一つまたは複数の有効オーディオ要素を前記所定のレンダリング・モードを用いてレンダリングする段階とを含み、
    前記所定のレンダリング・モードを使用して前記一つまたは複数の有効オーディオ要素をレンダリングすることは、前記有効オーディオ要素情報および前記一つまたは複数の有効オーディオ要素のそれぞれの音放射パターンを示す前記情報を考慮に入れ、前記所定のレンダリング・モードは、レンダリング出力に対するオーディオ・シーンの前記音響環境の影響を制御するための前記レンダリング・ツールの所定の構成を定義する、
    方法。
  2. 音響環境における聴取者の頭部の位置を示す聴取者位置情報、および/または音響環境における聴取者の頭部の配向を示す聴取者配向情報を得る段階をさらに含み、
    所定のレンダリング・モードを使用して前記一つまたは複数の有効オーディオ要素をレンダリングすることは、前記聴取者位置情報および/または聴取者配向情報をさらに考慮に入れる、
    請求項1に記載の方法。
  3. 前記所定のレンダリング・モードを使用して前記一つまたは複数の有効オーディオ要素をレンダリングすることは、聴取者位置と前記一つまたは複数の有効オーディオ要素の有効オーディオ要素位置との間のそれぞれの距離に従って、音減衰モデリングを適用する、
    請求項1または2に記載の方法。
  4. 少なくとも2つの有効オーディオ要素が、前記オーディオ・シーンの記述から決定され;
    前記レンダリング・モード指示は、前記少なくとも2つの有効オーディオ要素のそれぞれについて、それぞれの所定のレンダリング・モードを示し;
    当該方法は、それぞれの所定のレンダリング・モードを使用して、前記少なくとも2つの有効オーディオ要素をレンダリングすることを含み;
    それぞれの所定のレンダリング・モードを使用して各有効オーディオ要素をレンダリングすることは、その有効オーディオ要素の有効オーディオ要素情報を考慮に入れ、その有効オーディオ要素についてのレンダリング・モードは、その有効オーディオ要素についてのレンダリング出力に対するオーディオ・シーンの音響環境の影響を制御するためのレンダリング・ツールのそれぞれの所定の構成を定義する、
    請求項1ないし3のうちいずれか一項に記載の方法。
  5. 前記オーディオ・シーンの記述から一つまたは複数のもとのオーディオ要素を決定する段階と;
    前記オーディオ・シーンの記述から、前記一つまたは複数のオーディオ要素のオーディオ要素位置を示すオーディオ要素情報を決定する段階と;
    前記一つまたは複数の有効オーディオ要素について使用される所定のレンダリング・モードとは異なる前記一つまたは複数のオーディオ要素についてのレンダリング・モードを使用して、前記一つまたは複数のオーディオ要素をレンダリングする段階とをさらに含み、
    前記一つまたは複数のオーディオ要素についてのレンダリング・モードを使用して前記一つまたは複数のオーディオ要素をレンダリングすることは、前記オーディオ要素情報を考慮に入れる、
    請求項1ないし4のうちいずれか一項に記載の方法。
  6. 前記所定のレンダリング・モードが使用される聴取者位置領域を示す聴取者位置領域情報を取得することをさらに含む、
    請求項1ないし5のうちいずれか一項に記載の方法。
  7. 前記レンダリング・モード指示によって示される所定のレンダリング・モードは、前記聴取者位置に依存し;
    当該方法は、前記聴取者位置領域情報によって示される前記聴取者位置領域について、前記レンダリング・モード指示によって示されるその所定のレンダリング・モードを使用して、前記一つまたは複数の有効オーディオ要素をレンダリングすることを含む、
    請求項6に記載の方法。
  8. オーディオ・シーン・コンテンツを生成する方法であって、当該方法は:
    音響環境を含むオーディオ・シーンからの捕捉された信号を表す一つまたは複数のオーディオ要素を取得する段階と;
    生成される一つまたは複数の有効オーディオ要素の有効オーディオ要素位置を示す有効オーディオ要素情報を得る段階であって、前記一つまたは複数の有効オーディオ要素は前記音響環境の影響をカプセル化し、前記オーディオ・シーンを表わす一つまたは複数の仮想オーディオ・オブジェクトに対応し、前記有効オーディオ要素情報は、前記一つまたは複数の有効オーディオ要素のそれぞれの音放射パターンを示す情報を含む、段階と;
    前記捕捉された信号が捕捉された位置と前記一つまたは複数の有効オーディオ要素の有効オーディオ要素位置との間の距離に従って音減衰モデリングを適用することによって、前記捕捉された信号を表わす前記一つまたは複数のオーディオ要素から前記一つまたは複数の有効オーディオ要素を決定する段階とを含む、
    方法。
  9. オーディオ・シーン・コンテンツをビットストリームにエンコードする方法であって、当該方法は:
    オーディオ・シーンの記述を受領する段階であって、前記オーディオ・シーンは、音響環境と、それぞれのオーディオ要素位置にある一つまたは複数のオーディオ要素とを含む、段階と;
    前記一つまたは複数のオーディオ要素からそれぞれの有効オーディオ要素位置における一つまたは複数の有効オーディオ要素を決定する段階であって、前記一つまたは複数の有効オーディオ要素は一つまたは複数のもとのオーディオ・オブジェクトに対応し、前記一つまたは複数の有効オーディオ要素は前記音響環境の影響をカプセル化し、前記オーディオ・シーンを表わす一つまたは複数の仮想オーディオ・オブジェクトに対応する、段階と;
    前記一つまたは複数の有効オーディオ要素の有効オーディオ要素位置を示す有効オーディオ要素情報を生成する段階であって、前記有効オーディオ要素情報は、前記一つまたは複数の有効オーディオ要素のそれぞれの音放射パターンを示す情報を含むように生成される、段階と;
    前記一つまたは複数の有効オーディオ要素が、事前レンダリングされたオーディオ要素から得られた音場を表わし、デコーダにおけるレンダリング出力に対する音響環境の影響を制御するためのデコーダのレンダリング・ツールの所定の構成を定義する所定のレンダリング・モードを使用してレンダリングされるべきであることを示すレンダリング・モード指示を生成する段階と;
    前記一つまたは複数のオーディオ要素、前記オーディオ要素位置、前記一つまたは複数の有効オーディオ要素、前記有効オーディオ要素情報、および前記レンダリング・モード指示をビットストリームにエンコードする段階を含む、
    方法。
  10. 音響環境における聴取者の頭部の位置を示す聴取者位置情報、および/または音響環境における聴取者の頭部の配向を示す聴取者配向情報を得る段階と;
    前記聴取者位置情報および/または聴取者配向情報を前記ビットストリームにエンコードする段階とをさらに含む、
    請求項9に記載の方法。
  11. いくつかの実施形態では、少なくとも2つの有効オーディオ要素が生成され、前記ビットストリームにエンコードされ;
    レンダリング・モード指示は、前記少なくとも2つの有効オーディオ要素のそれぞれについて、それぞれの所定のレンダリング・モードを示す、
    請求項9または10に記載の方法。
  12. 前記所定のレンダリング・モードが使用される聴取者位置領域を示す聴取者位置領域情報を取得する段階と;
    前記聴取者位置領域情報を前記ビットストリームにエンコードする段階とをさらに含む、
    請求項9ないし11のうちいずれか一項に記載の方法。
  13. 前記レンダリング・モード指示によって示される前記所定のレンダリング・モードは、前記聴取者位置に依存し、前記レンダリング・モード指示は、複数の聴取者位置のそれぞれについてそれぞれの所定のレンダリング・モードを示す、請求項12に記載の方法。
  14. プロセッサのための命令を記憶しているメモリに結合されたプロセッサを含むオーディオ・デコーダであって、前記プロセッサは、請求項1ないし7のうちいずれか一項に記載の方法を実行するように適応されている、オーディオ・デコーダ。
  15. 命令を含んでいるコンピュータ・プログラムであって、前記命令は、前記命令を実行するプロセッサに、請求項1ないし7のうちいずれか一項に記載の方法を実行させるものである、コンピュータ・プログラム。
  16. 請求項15に記載のコンピュータ・プログラムを記憶しているコンピュータ可読記憶媒体。
  17. プロセッサのための命令を記憶しているメモリに結合されたプロセッサを含むオーディオ・エンコーダであって、前記プロセッサは、請求項8ないし13のうちいずれか一項に記載の方法を実行するように適応されている、オーディオ・エンコーダ。
  18. 命令を含んでいるコンピュータ・プログラムであって、前記命令は、前記命令を実行するプロセッサに、請求項8ないし13のうちいずれか一項に記載の方法を実行させるものである、コンピュータ・プログラム。
  19. 請求項18に記載のコンピュータ・プログラムを記憶しているコンピュータ可読記憶媒体。
JP2020555105A 2018-04-11 2019-04-08 オーディオ・レンダリングのための事前レンダリングされた信号のための方法、装置およびシステム Active JP7371003B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023179225A JP2024012333A (ja) 2018-04-11 2023-10-18 オーディオ・レンダリングのための事前レンダリングされた信号のための方法、装置およびシステム

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862656163P 2018-04-11 2018-04-11
US62/656,163 2018-04-11
US201862755957P 2018-11-05 2018-11-05
US62/755,957 2018-11-05
PCT/EP2019/058833 WO2019197349A1 (en) 2018-04-11 2019-04-08 Methods, apparatus and systems for a pre-rendered signal for audio rendering

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023179225A Division JP2024012333A (ja) 2018-04-11 2023-10-18 オーディオ・レンダリングのための事前レンダリングされた信号のための方法、装置およびシステム

Publications (2)

Publication Number Publication Date
JP2021521681A true JP2021521681A (ja) 2021-08-26
JP7371003B2 JP7371003B2 (ja) 2023-10-30

Family

ID=66165950

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020555105A Active JP7371003B2 (ja) 2018-04-11 2019-04-08 オーディオ・レンダリングのための事前レンダリングされた信号のための方法、装置およびシステム
JP2023179225A Pending JP2024012333A (ja) 2018-04-11 2023-10-18 オーディオ・レンダリングのための事前レンダリングされた信号のための方法、装置およびシステム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023179225A Pending JP2024012333A (ja) 2018-04-11 2023-10-18 オーディオ・レンダリングのための事前レンダリングされた信号のための方法、装置およびシステム

Country Status (7)

Country Link
US (1) US11540079B2 (ja)
EP (1) EP3777245A1 (ja)
JP (2) JP7371003B2 (ja)
KR (2) KR102643006B1 (ja)
CN (4) CN115346539A (ja)
BR (1) BR112020019890A2 (ja)
WO (1) WO2019197349A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113993060A (zh) * 2018-04-09 2022-01-28 杜比国际公司 用于mpeg-h 3d音频的三自由度(3dof+)扩展的方法、设备和系统
CN115346539A (zh) * 2018-04-11 2022-11-15 杜比国际公司 用于音频渲染的预渲染信号的方法、设备和系统
US11722718B2 (en) 2019-01-24 2023-08-08 Interdigital Vc Holdings, Inc. System and method for adaptive spatial content streaming with multiple levels of detail and degrees of freedom
US20230171557A1 (en) * 2020-03-16 2023-06-01 Nokla Technologies Oy Rendering encoded 6dof audio bitstream and late updates
JP2024525456A (ja) * 2021-06-30 2024-07-12 テレフオンアクチーボラゲット エルエム エリクソン(パブル) 残響レベルの調整
CN116567516A (zh) * 2022-01-28 2023-08-08 华为技术有限公司 一种音频处理方法和终端

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016521532A (ja) * 2013-05-16 2016-07-21 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. オーディオ処理装置及び方法
JP2016538585A (ja) * 2013-10-22 2016-12-08 フラウンホーファーゲゼルシャフト ツール フォルデルング デル アンゲヴァンテン フォルシユング エー.フアー. ダウンミックス行列を復号及び符号化するための方法、音声コンテンツを呈示するための方法、ダウンミックス行列のためのエンコーダ及びデコーダ、音声エンコーダ及び音声デコーダ
WO2016208406A1 (ja) * 2015-06-24 2016-12-29 ソニー株式会社 音声処理装置および方法、並びにプログラム

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SI1875463T1 (sl) * 2005-04-22 2019-02-28 Qualcomm Incorporated Sistemi, postopki in naprava za glajenje faktorja ojačenja
US8817072B2 (en) * 2010-03-12 2014-08-26 Sony Corporation Disparity data transport and signaling
TWI517028B (zh) * 2010-12-22 2016-01-11 傑奧笛爾公司 音訊空間定位和環境模擬
WO2012122397A1 (en) * 2011-03-09 2012-09-13 Srs Labs, Inc. System for dynamically creating and rendering audio objects
KR102185941B1 (ko) * 2011-07-01 2020-12-03 돌비 레버러토리즈 라이쎈싱 코오포레이션 적응형 오디오 신호 생성, 코딩 및 렌더링을 위한 시스템 및 방법
EP2637427A1 (en) * 2012-03-06 2013-09-11 Thomson Licensing Method and apparatus for playback of a higher-order ambisonics audio signal
KR20140047509A (ko) * 2012-10-12 2014-04-22 한국전자통신연구원 객체 오디오 신호의 잔향 신호를 이용한 오디오 부/복호화 장치
SG11201504368VA (en) * 2012-12-04 2015-07-30 Samsung Electronics Co Ltd Audio providing apparatus and audio providing method
US9412385B2 (en) 2013-05-28 2016-08-09 Qualcomm Incorporated Performing spatial masking with respect to spherical harmonic coefficients
EP2830045A1 (en) 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Concept for audio encoding and decoding for audio channels and audio objects
EP2830047A1 (en) 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for low delay object metadata coding
MX361115B (es) 2013-07-22 2018-11-28 Fraunhofer Ges Forschung Descodificador de audio multicanal, codificador de audio multicanal, métodos, programa de computadora y representación de audio codificada usando una decorrelación de señales de audio renderizadas.
EP2830052A1 (en) 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio decoder, audio encoder, method for providing at least four audio channel signals on the basis of an encoded representation, method for providing an encoded representation on the basis of at least four audio channel signals and computer program using a bandwidth extension
CN103701577B (zh) 2013-12-11 2017-08-11 北京邮电大学 云无线接入网中抑制导频污染的导频分配方法
DE102014211899A1 (de) 2014-06-20 2015-12-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Kopiergeschützten Erzeugen und Abspielen einer Wellenfeldsynthese-Audiodarstellung
CN104168091A (zh) 2014-09-01 2014-11-26 东南大学 一种面向多播业务的多天线分组预编码方法
KR20230105002A (ko) 2015-08-25 2023-07-11 돌비 레버러토리즈 라이쎈싱 코오포레이션 프레젠테이션 변환 파라미터들을 사용하는 오디오 인코딩및 디코딩
US9961467B2 (en) 2015-10-08 2018-05-01 Qualcomm Incorporated Conversion from channel-based audio to HOA
US10046229B2 (en) * 2016-05-02 2018-08-14 Bao Tran Smart device
EP3472832A4 (en) 2016-06-17 2020-03-11 DTS, Inc. DISTANCE-BASED PANORAMIC USING NEAR / FAR FIELD RENDERING
US10262665B2 (en) 2016-08-30 2019-04-16 Gaudio Lab, Inc. Method and apparatus for processing audio signals using ambisonic signals
JP2019533404A (ja) * 2016-09-23 2019-11-14 ガウディオ・ラボ・インコーポレイテッド バイノーラルオーディオ信号処理方法及び装置
US10659904B2 (en) * 2016-09-23 2020-05-19 Gaudio Lab, Inc. Method and device for processing binaural audio signal
CN106603134B (zh) 2016-12-22 2020-10-27 东南大学 一种用于双向无线通信系统的分布式天线选择设计方法
CN115346539A (zh) * 2018-04-11 2022-11-15 杜比国际公司 用于音频渲染的预渲染信号的方法、设备和系统
EP3693846A1 (en) * 2019-02-06 2020-08-12 Nokia Technologies Oy An apparatus, method or computer program for rendering sound scenes defined by spatial audio content to a user

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016521532A (ja) * 2013-05-16 2016-07-21 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. オーディオ処理装置及び方法
JP2016538585A (ja) * 2013-10-22 2016-12-08 フラウンホーファーゲゼルシャフト ツール フォルデルング デル アンゲヴァンテン フォルシユング エー.フアー. ダウンミックス行列を復号及び符号化するための方法、音声コンテンツを呈示するための方法、ダウンミックス行列のためのエンコーダ及びデコーダ、音声エンコーダ及び音声デコーダ
WO2016208406A1 (ja) * 2015-06-24 2016-12-29 ソニー株式会社 音声処理装置および方法、並びにプログラム

Also Published As

Publication number Publication date
EP3777245A1 (en) 2021-02-17
JP2024012333A (ja) 2024-01-30
RU2020132974A (ru) 2022-04-07
BR112020019890A2 (pt) 2021-01-05
CN111955020B (zh) 2022-08-23
CN115346538A (zh) 2022-11-15
WO2019197349A1 (en) 2019-10-17
US11540079B2 (en) 2022-12-27
KR20200140875A (ko) 2020-12-16
US20210120360A1 (en) 2021-04-22
CN115334444A (zh) 2022-11-11
JP7371003B2 (ja) 2023-10-30
KR102643006B1 (ko) 2024-03-05
CN115346539A (zh) 2022-11-15
CN111955020A (zh) 2020-11-17
KR20240033290A (ko) 2024-03-12

Similar Documents

Publication Publication Date Title
JP7371003B2 (ja) オーディオ・レンダリングのための事前レンダリングされた信号のための方法、装置およびシステム
US11937068B2 (en) Apparatus and method for reproducing a spatially extended sound source or apparatus and method for generating a bitstream from a spatially extended sound source
RU2602346C2 (ru) Рендеринг отраженного звука для объектно-ориентированной аудиоинформации
US20230126927A1 (en) Signal processing device, method, and program
US10271156B2 (en) Audio signal processing method
US20220377489A1 (en) Apparatus and Method for Reproducing a Spatially Extended Sound Source or Apparatus and Method for Generating a Description for a Spatially Extended Sound Source Using Anchoring Information
US20240089694A1 (en) A Method and Apparatus for Fusion of Virtual Scene Description and Listener Space Description
US20230262407A1 (en) Methods, apparatus and systems for a pre-rendered signal for audio rendering
TW202332290A (zh) 使用空間擴展音源之呈現器、解碼器、編碼器、方法及位元串流
RU2787581C2 (ru) Способы, устройства и системы для подвергнутого предварительному рендерингу сигнала для рендеринга звука
CN114128312B (zh) 用于低频效果的音频渲染
TW202324378A (zh) 後期迴響距離衰減技術
GB2614537A (en) Conditional disabling of a reverberator

Legal Events

Date Code Title Description
A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A529

Effective date: 20201008

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230605

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230919

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231018

R150 Certificate of patent or registration of utility model

Ref document number: 7371003

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150