JP2018537710A - パラメトリック・バイノーラル出力システムおよび方法のための頭部追跡 - Google Patents

パラメトリック・バイノーラル出力システムおよび方法のための頭部追跡 Download PDF

Info

Publication number
JP2018537710A
JP2018537710A JP2018525387A JP2018525387A JP2018537710A JP 2018537710 A JP2018537710 A JP 2018537710A JP 2018525387 A JP2018525387 A JP 2018525387A JP 2018525387 A JP2018525387 A JP 2018525387A JP 2018537710 A JP2018537710 A JP 2018537710A
Authority
JP
Japan
Prior art keywords
audio
dominant
component
signal
estimate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018525387A
Other languages
English (en)
Other versions
JP6740347B2 (ja
Inventor
イエルーン ブレーバールト,ディルク
イエルーン ブレーバールト,ディルク
マシュー クーパー,デイヴィッド
マシュー クーパー,デイヴィッド
エフ. デイヴィス,マーク
エフ. デイヴィス,マーク
エス. マクグラス,デイヴィッド
エス. マクグラス,デイヴィッド
ヘルリンク,クリストファー
ムント,ハラルト
ジェイ. ウィルソン,ロンダ
ジェイ. ウィルソン,ロンダ
Original Assignee
ドルビー ラボラトリーズ ライセンシング コーポレイション
ドルビー ラボラトリーズ ライセンシング コーポレイション
ドルビー・インターナショナル・アーベー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ドルビー ラボラトリーズ ライセンシング コーポレイション, ドルビー ラボラトリーズ ライセンシング コーポレイション, ドルビー・インターナショナル・アーベー filed Critical ドルビー ラボラトリーズ ライセンシング コーポレイション
Publication of JP2018537710A publication Critical patent/JP2018537710A/ja
Priority to JP2020052041A priority Critical patent/JP6964703B2/ja
Application granted granted Critical
Publication of JP6740347B2 publication Critical patent/JP6740347B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • H04S7/304For headphones
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/033Headphones for stereophonic communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/002Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
    • H04S3/004For headphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/01Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/03Application of parametric coding in stereophonic audio systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Stereophonic System (AREA)
  • Golf Clubs (AREA)
  • Massaging Devices (AREA)
  • Stereophonic Arrangements (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

再生のためにチャネル・ベースまたはオブジェクト・ベースの入力オーディオをエンコードする方法。本方法は、(a)前記チャネル・ベースまたはオブジェクト・ベースの入力オーディオを初期の出力呈示に初期にレンダリングし;(b)前記チャネル・ベースまたはオブジェクト・ベースの入力オーディオから優勢オーディオ成分の推定値を決定し、前記初期の出力呈示を前記優勢オーディオ成分にマッピングするための一連の優勢オーディオ成分重み付け因子を決定し;(c)前記優勢オーディオ成分の方向または位置の推定値を決定し;(d)前記初期の出力呈示、前記優勢オーディオ成分重み付け因子、前記優勢オーディオ成分の方向または位置を、再生のためのエンコードされた信号としてエンコードすることを含む。

Description

本発明は、任意的に頭部追跡を利用するときの改良された形のパラメトリック・バイノーラル出力のためのシステムおよび方法を提供する。
本明細書を通じて背景技術のいかなる議論も、いかなる仕方でも、そのような技術が当分野において広く知られているまたは技術常識の一部をなすことの自認と考えられるべきではない。
オーディオ・コンテンツのコンテンツ生成、符号化、頒布および再生は、伝統的にはチャネル・ベースである。すなわち、コンテンツ・エコシステムを通じて一つの特定の目標再生システムが構想されている。そのような目標再生システムの例はモノ、ステレオ、5.1、7.1、7.1.4などである。
コンテンツが意図されたものとは異なる再生システムで再生される場合、ダウンミックス〔下方混合〕またはアップミックス〔上方混合〕が適用されることができる。たとえば、5.1コンテンツは、特定の既知のダウンミックスの式を用いることによって、ステレオ再生システムで再生できる。もう一つの例は7.1スピーカー・セットアップでのステレオ・コンテンツの再生であり、これはいわゆるアップミックス・プロセスを含むことがあり、アップミックス・プロセスは、Dolby Pro Logicのようないわゆるマトリクス・エンコーダによって使われるような、ステレオ信号に存在する情報によって案内されることも、されないこともできる。アップミックス・プロセスを案内するために、ダウンミックスの式に特定の位相関係を含めることによって、あるいは別の言い方をすれば、複素数値のダウンミックスの式を適用することによって、ダウンミックス前の信号のもとの位置についての情報が、暗黙的に信号伝達されることができる。二次元に配置されたスピーカーとのコンテンツのために複素数値のダウンミックス係数を使うそのようなダウンミックス方法のよく知られた例が、LtRtである(非特許文献2)。
結果として得られる(ステレオ)ダウンミックス信号は、ステレオ・ラウドスピーカー・システムを通じて再生されることができ、あるいはサラウンドおよび/または高さスピーカーをもつラウドスピーカー・セットアップにアップミックスされることができる。信号の意図された位置は、チャネル間の位相関係からアップミキサーによって導出されることができる。たとえば、LtRtステレオ表現では、逆相の(たとえば−1に近いチャネル間波形規格化相互相関係数をもつ)信号は、理想的には一つまたは複数のサラウンド・スピーカーによって再生されるべきであり、一方、(+1に近い)正の相関は、その信号が聴取者の前方のスピーカーによって再生されるべきであることを示す。
多様なアップミックス・アルゴリズムおよび戦略が開発されているが、その相違はステレオ・ダウンミックスからマルチチャネル信号を再生成する戦略にある。比較的単純なアップミキサーでは、ステレオ波形信号の規格化された相互相関係数は時間の関数として追跡され、一方、信号(単数または複数)は、規格化された相互相関係数の値に依存して、前方または後方スピーカーにステアリングされる。この手法は、同時に存在する聴覚オブジェクトが一つだけの比較的単純なコンテンツについてはうまく機能する。より高度なアップミキサーは、特定の周波数領域から導出される統計的情報に基づいて、ステレオ入力からマルチチャネル出力への信号の流れを制御する(非特許文献1、2)。具体的には、ステアリングされるもしくは優勢な成分およびステレオ(拡散)残差信号に基づく信号モデルが、個別の時間/周波数タイルにおいて用いられることができる。優勢成分および残差信号の推定のほかに、方向角(方位角、可能性としては仰角で補強)も推定され、その後、優勢成分信号が一つまたは複数のラウドスピーカーにステアリングされて、再生中に(推定された)位置を再構成する。
マトリクス・エンコーダおよびデコーダ/アップミキサーの使用は、チャネル・ベースのコンテンツに限定されない。オーディオ産業における最近の発展は、チャネルではなくオーディオ・オブジェクトに基づき、一つまたは複数のオブジェクトはオーディオ信号および関連するメタデータからなる。メタデータは、中でも、その意図される位置を時間の関数として示す。そのようなオブジェクト・ベースのオーディオ・コンテンツについても、非特許文献2で概説されるように、マトリクス・エンコーダが使用されることができる。そのようなシステムでは、オーディオ信号は、オブジェクト位置メタデータに依存するダウンミックス係数を用いて、ステレオ信号表現にダウンミックスされる。
マトリクス・エンコードされたコンテンツのアップミックスおよび再生は、必ずしもラウドスピーカーでの再生に限定されない。優勢成分信号および(意図される)位置からなる、ステアリングされるまたは優勢な成分の表現は、頭部インパルス応答(HRIR: head-related impulse response)との畳み込みによってヘッドフォンでの再生を許容する(非特許文献3)。この方法を実装するシステムの単純な方式が図1に示されている(1)。マトリクス・エンコードされたフォーマットの入力信号2はまず解析3されて、優勢成分方向および大きさを決定する。優勢成分信号は、優勢成分方向に基づいてルックアップ6から導出された一対のHRIRによって畳み込み4、5され、ヘッドフォン再生7のための出力信号を計算する。再生信号は、優勢成分解析段3によって決定された方向からくるように知覚される。この方式は、広帯域信号にも、個々のサブバンドにも適用でき、さまざまな仕方で、残差(または拡散)信号の専用の処理で補強されることができる。
マトリクス・エンコーダの使用は、AVレシーバーへの配信およびAVレシーバーでの再生に非常に好適であるが、低い伝送データ・レートおよび低い電力消費を要求するモバイル・アプリケーションのためには問題となることがある。
使われるコンテンツがチャネル・ベースであるかオブジェクト・ベースであるかに関わりなく、マトリクス・エンコーダおよびデコーダは、マトリクス・エンコーダからデコーダに配送される信号の、かなり正確なチャネル間位相関係に依拠する。換言すれば、配送フォーマットはほぼ波形保存であるべきである。そのような波形保存への依存は、ビットレートが制約された条件においては問題となることがある。そのような条件では、オーディオ・コーデックは、よりよいオーディオ品質を得るために、波形符号化ツールではなくパラメトリック方法を用いる。波形保存ではないことが一般に知られているそのようなパラメトリック・ツールの例は、しばしばスペクトル帯域複製、パラメトリック・ステレオ、空間オーディオ符号化などと称され、MPEG-4オーディオ・コーデックにおいて実装されている(非特許文献4)。
前節で概説したように、アップミキサーは、信号の解析およびステアリング(またはHRIR畳み込み)からなる。AVレシーバーのような電源のある装置については、これは一般に問題を起こさないが、携帯電話およびタブレットのようなバッテリー動作の装置については、これらのプロセスに関わる計算量および対応するメモリ要求は、バッテリー寿命への負の影響のため、しばしば望ましくない。
上述した解析は典型的には、追加的なオーディオ・レイテンシーをも導入する。そのようなオーディオ・レイテンシーが望ましくない理由は、(1)ビデオ・ディスプレイがオーディオ‐ビデオの音声同期を維持することを要求し、かなりの量のメモリおよび処理パワーを必要とすることと、(2)頭部追跡の場合に頭の動きとオーディオ・レンダリングの間の非同期/レイテンシーを引き起こしうることである。
マトリクス・エンコードされたダウンミックスは、強い逆相信号成分が存在する可能性のため、ステレオ・ラウドスピーカーまたはヘッドフォン上で最適に聞こえないことがある。
Gundry, K.、"A New Matrix Decoder for Surround Sound," AES 19th International Conf., Schloss Elmau, Germany, 2001 Vinton, M., McGrath, D., Robinson, C., Brown, P.、"Next generation surround decoding and up-mixing for consumer and professional applications", AES 57th International Conf, Hollywood, CA, USA, 2015 Wightman, F. L., and Kistler, D. J. (1989)、"Headphone simulation of free-field listening. I. Stimulus synthesis," J. Acoust. Soc. Am. 85, 858-867 ISO/IEC 14496-3:2009 - Information technology -- Coding of audio-visual objects -- Part 3: Audio, 2009 Mania, Katerina, et al.、"Perceptual sensitivity to head tracking latency in virtual environments with varying degrees of scene complexity." Proceedings of the 1st Symposium on Applied perception in graphics and visualization. ACM, 2004 Allison, R. S., Harris, L. R., Jenkin, M., Jasiobedzka, U., & Zacher, J. E. (2001, March). Tolerance of temporal delay in virtual environments. In Virtual Reality, 2001. Proceedings. IEEE (pp. 247-254). IEEE Van de Par, Steven, and Armin Kohlrausch. "Sensitivity to auditory-visual asynchrony and to jitter in auditory-visual timing." Electronic Imaging. International Society for Optics and Photonics, 2000
改善された形のパラメトリック・バイノーラル出力を提供することが本発明の目的である。
本発明の第一の側面によれば、再生のためにチャネルまたはオブジェクト・ベースの入力オーディオをエンコードする方法が提供される。本方法は:(a)前記チャネルまたはオブジェクト・ベースの入力オーディオを初期の出力呈示(たとえば初期の出力表現)に初期にレンダリングし;(b)前記チャネルまたはオブジェクト・ベースの入力オーディオから優勢オーディオ成分の推定値を決定し、前記初期の出力呈示を前記優勢オーディオ成分にマッピングするための一連の優勢オーディオ成分重み付け因子を決定し;(c)前記優勢オーディオ成分の方向または位置の推定値を決定し;(d)前記初期の出力呈示、前記優勢オーディオ成分重み付け因子、前記優勢オーディオ成分の方向または位置を、再生のためのエンコードされた信号としてエンコードすることを含む。前記初期の出力呈示を前記優勢オーディオ成分にマッピングするための前記一連の優勢オーディオ成分重み付け因子を提供することにより、前記優勢オーディオ成分重み付け因子および前記初期の出力呈示を利用して、前記優勢成分の前記推定値を決定することができる。
いくつかの実施形態では、本方法はさらに、前記初期の出力呈示より前記優勢オーディオ成分もしくはその前記推定値のいずれかのレンダリングだけ小さいものである残差混合の推定値を決定することを含む。本方法は、前記チャネルまたはオブジェクト・ベースの入力オーディオの無残響のバイノーラル混合を生成し、残差混合の推定値を決定することをも含むことができ、ここで、前記残差混合の推定値は、前記無残響のバイノーラル混合より、前記優勢オーディオ成分もしくはその前記推定値のいずれかのレンダリングだけ小さいものである。さらに、本方法は、前記初期の出力呈示を前記残差混合の推定値にマッピングするための一連の残差行列係数を決定することをも含むことができる。
前記初期の出力呈示は、ヘッドフォンまたはラウドスピーカー呈示を含むことができる。前記チャネルまたはオブジェクト・ベースの入力オーディオは、時間および周波数でタイリングされることができ、エンコード段階は、一連の時間ステップおよび一連の周波数帯域について繰り返されることができる。前記初期の出力呈示は、ステレオ・スピーカー混合を含むことができる。
本発明のさらなる側面によれば、エンコードされたオーディオ信号をデコードする方法が提供される。前記エンコードされたオーディオ信号は:第一の(たとえば初期の)出力呈示(たとえば、第一の/初期の出力表現)と;優勢オーディオ成分の方向および優勢オーディオ成分重み付け因子とを含み、本方法は:(a)前記優勢オーディオ成分重み付け因子および初期の出力呈示を利用して、推定された優勢成分を決定し;(b)前記優勢オーディオ成分の方向に従って、前記推定された優勢成分を、バイノーラル化により、意図される聴取者に対するある空間位置にレンダリングして、レンダリングされたバイノーラル化推定優勢成分を形成し;(c)前記第一の(たとえば初期の)出力呈示から残差成分推定値を再構成し;(d)前記レンダリングされたバイノーラル化推定優勢成分および前記残差成分推定値を組み合わせて、出力空間化オーディオ・エンコード信号を形成する段階を含む。
前記エンコードされたオーディオ信号はさらに、残差オーディオ信号を表わす一連の残差行列係数を含むことができ、段階(c)はさらに、(c1)前記残差行列係数を前記第一の(たとえば初期の)出力呈示に適用して、前記残差成分推定値を再構成することを含む。
いくつかの実施形態では、前記残差成分推定値は、前記第一の(たとえば初期の)出力呈示から、前記レンダリングされたバイノーラル化推定優勢成分を引くことによって再構成されることができる。段階(b)は、意図される聴取者の頭の配向を示す入力頭部追跡信号に基づく、前記推定された優勢成分の初期回転を含むことができる。
本発明のさらなる側面によれば、オーディオ・ストリームのデコードおよびヘッドフォンを使う聴取者のための再生のための方法が提供される。本方法は:(a)第一のオーディオ表現および追加的なオーディオ変換データを含むデータ・ストリームを受領する段階と;(b)前記聴取者の配向を表わす頭部配向データを受領する段階と;(c)前記第一のオーディオ表現および受領された変換データに基づいて一つまたは複数の補助信号を生成する段階と;(d)前記第一のオーディオ表現および前記補助信号の組み合わせからなる第二のオーディオ表現を生成する段階であって、前記補助信号のうち一つまたは複数は、前記頭部配向データに応答して修正されている、段階と;(e)前記第二のオーディオ表現を出力オーディオ・ストリームとして出力する段階とを含む。
いくつかの実施形態はさらに、前記補助信号の前記修正は、音源位置から前記聴取者の耳までの音響経路のシミュレーションからなる。前記変換データは:行列処理係数と、音源位置または音源方向の少なくとも一方とからなることができる。変換プロセスは、時間または周波数の関数として適用されることができる。前記補助信号は、少なくとも一つの優勢成分を表わすことができる。前記音源位置または方向は、前記変換データの一部として受領されることができ、前記頭部配向データに応答して回転されることができる。いくつかの実施形態では、最大回転量は、方位角または仰角において360度未満の値に制限される。前記二次表現は、前記第一の表現から、変換もしくはフィルタバンク領域において行列処理することによって得られる。前記変換データはさらに、追加的な行列処理係数を含むことができ、段階(d)はさらに、前記第一のオーディオ呈示および前記補助オーディオ信号を組み合わせるのに先立って、前記追加的な行列処理係数に応答して前記第一のオーディオ呈示を修正することを含むことができる。
本発明の実施形態について、これから単に例として、付属の図面を参照して記述する。
マトリクス・エンコードされたコンテンツのためのヘッドフォン・デコーダを概略的に示す図である。 ある実施形態に基づくエンコーダを概略的に示す図である。 デコーダの概略的なブロック図である。 エンコーダの詳細な視覚化である。 デコーダの一つの形をより詳細に示す図である。
実施形態は、オブジェクト・ベースまたはチャネル・ベースのオーディオ・コンテンツを表現するシステムおよび方法であって、(1)ステレオ再生と互換であり、(2)頭部追跡を含むバイノーラル再生を許容し、(3)デコーダ計算量が低く、(4)マトリクス・エンコードに頼らないが、それでいてマトリクス・エンコードと互換なものを提供する。
これは、一つまたは複数の優勢成分(または優勢オブジェクトまたはそれらの組み合わせ)のエンコーダ側での解析を組み合わせ、ダウンミックスからこれらの優勢成分を予測する重みを、追加的なパラメータと組み合わせて含めることによって達成される。追加的なパラメータは、ステアリングされたまたは優勢な成分だけに基づくバイノーラル・レンダリングと、完全なコンテンツの所望されるバイノーラル呈示との間の誤差を最小にするものである。
ある実施形態では、優勢成分(または複数の優勢成分)の解析が、デコーダ/レンダラーではなく、エンコーダにおいて提供される。次いで、オーディオ・ストリームは、優勢成分の方向を示すメタデータと、優勢成分(単数または複数)がどのようにして、関連するダウンミックス信号から得られることができるかについての情報とを用いて補強される。
図2は、好ましい実施形態のエンコーダ20の一つの形を示している。オブジェクトまたはチャネル・ベースのコンテンツ21は、優勢成分(単数または複数)を決定するために解析23にかけられる。この解析は、時間および周波数の関数として行なわれてもよい(オーディオ・コンテンツは時間タイルおよび周波数サブタイルに分割されているとする)。このプロセスの結果は、優勢成分信号26(または複数の優勢成分信号)および関連する位置(単数または複数)または方向(単数または複数)の情報25である。その後、伝送されるダウンミックスからの優勢成分信号の再構成を許容するために、重みが推定24され、出力27される。このダウンミックス生成器22は必ずしもLtRtダウンミックス規則に従う必要はなく、負でない実数値のダウンミックス係数を使う標準的なITU(LoRo)ダウンミックスであることができる。最後に、出力ダウンミックス信号29、重み27および位置データ25は、オーディオ・エンコーダ28によってパッケージされて、頒布のために準備される。
ここで図3に目を転じると、好ましい実施形態の対応するデコーダ30が示されている。オーディオ・デコーダはダウンミックス信号を再構成する。信号は入力31され、オーディオ・デコーダ32によってダウンミックス信号、重みおよび優勢成分の方向にアンパックされる。その後、優勢成分推定重みが、ステアリングされる成分(単数または複数)を再構成34するために使われ、ステアリングされる成分は、伝送された位置または方向データを使ってレンダリング36される。位置データは任意的に、頭部回転または並進情報38に依存して修正33されてもよい。さらに、再構成された優勢成分は、ダウンミックスから減算35されてもよい。任意的に、ダウンミックス・パス内に優勢成分の減算があるが、代替的に、この減算は、後述するように、エンコーダにおいて行なわれてもよい。
減算器35における再構成された優勢成分の除去または打ち消しを改善するために、優勢成分出力は、減算に先立ってまず、伝送された位置または方向データを使ってレンダリングされてもよい。図3ではこの任意的なレンダリング段39が示されている。
ここで戻ってまずエンコーダをより詳細に述べることにすると、図4は、オブジェクト・ベースの(たとえばドルビー・アトモス)オーディオ・コンテンツを処理するためのエンコーダ40の一つの形を示している。オーディオ・オブジェクトはもともとアトモス・オブジェクト41として記憶されており、初期に、ハイブリッド複素数値直交ミラー・フィルタ(HCQMF: hybrid complex-valued quadrature mirror filter)バンク42を使って時間および周波数タイルに分割される。対応する時間および周波数インデックスを省略するときは、入力オブジェクト信号はxi[n]によって表わすことができる。現在フレーム内での対応する位置は単位ベクトル
Figure 2018537710
〔便宜上、→piとも記す〕によって与えられ、インデックスiはオブジェクト番号を表わし、インデックスnは時間を表わす(たとえばサブバンド・サンプル・インデックス)。入力オブジェクト信号xi[n]はチャネルまたはオブジェクト・ベースの入力オーディオについての例である。
無残響のサブバンド・バイノーラル混合Y(yl,yr)が、位置→piに対応するHRIRのサブバンド表現を表わす複素数値のスカラーHl,i、Hr,i(たとえば、一タップのHRTF 48)を使って生成43される:
Figure 2018537710
あるいはまた、バイノーラル混合Y(yl,yr)は、頭部インパルス応答(HRIR)を使った畳み込みによって生成されてもよい。さらに、ステレオ・ダウンミックスzl、zr(例示的に、初期の出力呈示を具現する)が、振幅パン利得係数gl,i,、gr,iを使って生成44される:
Figure 2018537710
優勢成分の方向ベクトル→pD(例示的に、優勢オーディオ成分方向または位置を具現する)は、各オブジェクトについての単位方向ベクトルの重み付けされた和を初期に計算することによって、優勢成分45を計算することによって、推定されることができる:
Figure 2018537710
ここで、σi 2は信号xi[n]のエネルギー:
Figure 2018537710
であり、(.)*は複素共役演算子である。
優勢/ステアリングされる信号d[n](例示的に、優勢オーディオ成分を具現する)はその後、次式によって与えられる:
Figure 2018537710
ここで、F(→p1,→p2)は、単位ベクトル→p1、→p2の間の増大する距離とともに減少する利得を生じる関数である。たとえば、高次球面調和関数に基づく指向性パターンをもつ仮想マイクロフォンを生成するために、一つの実装は:
Figure 2018537710
に対応する。ここで、→piは、二次元または三次元座標系における単位方向ベクトルを表わし、(・)は二つのベクトルについてのドット積演算子であり、a、b、cは例示的パラメータである’(たとえばa=b=0.5;c=1)。
重みまたは予測係数wl,d、wr,dが計算46され、推定されるステアリングされる信号^d[n]:
Figure 2018537710
を計算47するために使われる。ここで、重みwl,d、wr,dは、ダウンミックス信号zl、zrが与えられたときに、d[n]と^d[n]の間の平均方法誤差を最小化するものである。重みwl,d、wr,dは、初期の出力呈示(たとえばzl、zr)を優勢オーディオ成分(たとえば^d[n])にマッピングするための優勢オーディオ成分重み付け因子の例である。これらの重みを導出するための既知の方法は、最小平均平方誤差(MMSE: minimum mean-square error)予測器を適用することによる:
Figure 2018537710
ここで、Rabは、信号aおよび信号bについての信号間の共分散行列であり、εは正則化パラメータである。
その後、優勢成分信号^dの方向/位置→pDに関連付けられたHRTF(HRIR)Hl,D、Hr,D 50を使って、無残響のバイノーラル混合yl、yrから優勢成分信号のレンダリングされた推定値^d[n]を減算49して、残差バイノーラル混合~yl、~yr
Figure 2018537710
を生成することができる。
最後に、最小平均平方誤差推定値を使って、ステレオ混合zl、zrから残差バイノーラル混合~yl、~yrの再構成を許容する、予測係数または重みwi,jのもう一つの集合が推定51される:
Figure 2018537710
ここで、Rabは表現aおよび表現bについての信号間の共分散行列であり、εは正則化パラメータである。予測係数または重みwi,jは、初期の出力呈示(たとえばzl、zr)を残差バイノーラル混合の推定値~yl、~yrにマッピングするための残差行列係数の例である。上記の式は、何らかの予測損失を克服するために、追加的なレベル制約条件をかけられてもよい。エンコーダは、以下の情報を出力する:
ステレオ混合zl、zr(例示的に、初期の出力呈示を具現する);
優勢成分wl,d、wr,dを推定するための係数(例示的に、優勢オーディオ成分重み付け因子を具現する);
優勢成分の位置または方向→pD
そして任意的に、残差重みwi,j(例示的に、残差行列係数を具現する)。
上記の記述は単一の優勢成分に基づくレンダリングに関するものだが、いくつかの実施形態では、エンコーダは、複数の優勢成分を検出し、複数の優勢成分のそれぞれについて重みおよび方向を決定し、複数の優勢成分のそれぞれを無残響バイノーラル混合Yから減算し、次いで複数の優勢成分のそれぞれが無残響バイノーラル混合Yから減算された後に残差重みを決定するよう適応されてもよい。
〈デコーダ/レンダラー〉
図5は、デコーダ/レンダラー60の一つの形をより詳細に示している。デコーダ/レンダラー60は、アンパックされた入力情報zl、zr;wl,d、wr,d;→pD;wi,jから、聴取者71に対して出力するためのバイノーラル混合yl,yrを再構成することをねらいとするプロセスを適用する。よって、ステレオ混合zl、zrは第一のオーディオ表現の例であり、予測係数または重みwi,jおよび/または優勢成分信号^dの方向/位置→pDは、追加的なオーディオ変換データの例である。
初期に、ステレオ・ダウンミックスは、HCQMF分解バンク61のような好適なフィルタバンクまたは変換61を使って時間/周波数タイルに分割される。離散フーリエ変換、(修正)コサインまたはサイン変換、時間領域フィルタバンクまたはウェーブレット変換のような他の変換も等しく適用されうる。その後、推定された優勢成分信号^d[n]が、予測係数重みwl,d、wr,dを使って計算63される:
Figure 2018537710
推定された優勢成分信号^d[n]は、補助信号の例である。よって、この段階は、前記第一のオーディオ表現および受領された変換データに基づいて一つまたは複数の補助信号を生成することに対応する。
この優勢成分信号は、その後、HRTF 69を用いて、レンダリング65および修正68される。HRTF 69は、伝送された位置/方向データ→pDに基づき、可能性としては頭部追跡器から得られた情報62に基づいて修正(回転)されている。最後に、全無残響バイノーラル出力は、レンダリングされた優勢成分信号を、予測係数重みwi,jに基づく再構成された残差~yl、~yrと加算66したものからなる:
Figure 2018537710
全無残響バイノーラル出力は、第二のオーディオ表現の例である。よって、この段階は、前記第一のオーディオ表現および前記補助信号の組み合わせからなる第二のオーディオ表現を生成することに対応すると言ってもよい。ここで、前記補助信号の一つまたは複数は、前記頭部配向データに応答して修正されている。
二つ以上の優勢信号についての情報が受領される場合には、各優勢信号がレンダリングされて、再構成された残差信号に加えられてもよいことを注意しておくべきである。
頭部回転や並進が適用されない限り、出力信号^yl、^yrは、
Figure 2018537710
である限りにおいて、参照バイノーラル信号yl、yrに非常に近い(二乗平均平方根誤差の意味で)はずである。
〈主要な特性〉
上記の式の定式化から観察できるように、ステレオ呈示から無残響バイノーラル呈示を構築するための実効的な動作は、2×2行列70からなり、行列係数は伝送された情報wl,d、wr,d;→pD;wi,jおよび頭部追跡器の回転および/または並進に依存する。これは、プロセスの複雑さが比較的低いことを示す。優勢成分の分解がデコーダではなくエンコーダにおいて適用されるからである。
優勢成分が推定されない場合(たとえばwl,d、wr,d=0)、記載される解決策は、パラメトリック・バイノーラル方法と等価である。
ある種のオブジェクトを頭部回転/頭部追跡から除外したい場合には、これらのオブジェクトは、(1)優勢成分方向解析および(2)優勢成分信号予測から除外されることができる。結果として、これらのオブジェクトは、係数wi,jを通じて、ステレオからバイノーラルに変換され、よっていかなる頭部回転または並進によっても影響されない。
同様の考え方により、オブジェクトは「素通し」モードに設定されることができる。つまり、バイノーラル呈示において、それらのオブジェクトはHRIR畳み込みではなく振幅パンにかけられる。これは、一タップHRTFではなく、単に係数H.,iについての振幅パン利得を使って得られる。
〈拡張〉
実施形態は、ステレオ・ダウンミックスの使用に限定されない。他のチャネル数を用いることもできる。
図5を参照して述べたデコーダ60は、レンダリングされた優勢成分方向に、行列係数wi,jによって行列処理された入力信号を加えたものからなる出力信号をもつ。該係数は、たとえば下記のようなさまざまな仕方で導出できる。
1.係数wi,jは、信号~yl、~yrのパラメトリック再構成によってエンコーダにおいて決定されることができる。換言すれば、この実装では、係数wi,jは、もとの入力オブジェクト/チャネルをバイノーラルにレンダリングするときに得られたであろうバイノーラル信号yl、yrを忠実に再構成することをねらいとする。換言すれば、係数wi,jはコンテンツ駆動である。
2.係数wi,jは、たとえば方位角±45度における固定した空間位置についてのHRTFを表わすために、エンコーダからデコーダに送られることができる。換言すれば、残差信号は、ある位置における二つの仮想ラウドスピーカーを通じた再生をシミュレートするために処理される。HRTFを表わすこれらの係数がエンコーダからデコーダに伝送されるので、仮想スピーカーの位置は時間および周波数を通じて変化できる。この手法が、残差信号を表わすための静的な仮想スピーカーを使って用いられる場合には、係数wi,jはエンコーダからデコーダに伝送される必要はなく、その代わり、デコーダに固定的に組み込まれていてもよい。この手法の変形は、デコーダにおいて利用可能な、それぞれ対応する係数wi,jをもつ静的な位置の限定された集合からなる。どの静的な位置が残差信号を処理するために使われるかの選択は、エンコーダからデコーダに信号伝達される。
信号~yl、~yrは、デコーダにおけるこれらの信号の統計的解析によって二つより多い信号を再構成するいわゆるアップミキサーにかけられて、続いて、結果として得られるアップミックスされた信号のバイノーラル・レンダリングがされてもよい。
記載される方法は、伝送される信号Zがバイノーラル信号であるシステムにおいても適用できる。その特定の場合、図5のデコーダ60はそのままであり、一方、図4における「ステレオ(LoRo)混合を生成」とラベル付けされたブロックは、信号対Yを生成するブロックと同じである「無残響バイノーラル混合を生成」43によって置き換えられるべきである。さらに、必要に応じて、混合の他の形が生成されることができる。
この手法は、オブジェクトまたはチャネルの特定のサブセットからなる伝送されたステレオ混合から、一つまたは複数のFDN入力信号を再構成する方法に拡張されることができる。
本手法は、デコーダ側において、複数の優勢成分が、伝送されたステレオ混合から予測され、レンダリングされることで拡張されることができる。各時間/周波数タイルについて一つの優勢成分だけを予測するという根本的な制限はない。特に、優勢成分の数は、各時間/周波数タイルについて異なっていてもよい。
〈解釈〉
本明細書を通じて「一つの実施形態」「いくつかの実施形態」または「ある実施形態」への言及は、その実施形態との関連で記載されている特定の特徴、構造または特性が本発明の少なくとも一つの実施形態に含まれることを意味する。よって、「一つの実施形態において」「いくつかの実施形態において」または「ある実施形態において」という句が本明細書を通じた随所に現われることは、必ずしもみなが同じ実施形態を指しているのではないが、指していてもよい。さらに、特定の特徴、構造または特性は、いかなる好適な仕方で組み合わされてもよい。このことは、一つまたは複数の実施形態において、本開示から当業者には明白であろう。
本稿での用法では、特に断わりのない限り、共通のオブジェクトを記述する順序形容語「第一」「第二」「第三」などの使用は、単に同様のオブジェクトの異なるインスタンスが言及されていることを示すものであって、そのように記述されるオブジェクトが時間的、空間的、ランキングにおいてまたは他のいかなる仕方においても、所与の序列でなければならないことを含意することは意図されていない。
付属の請求項および本稿の記述において、有する、から構成されるまたは含むという用語の任意のものは、少なくともその後続の要素/特徴を含むが他のものを排除しないことを意味するオープンな用語である。よって、請求項において使われるときの有するの用語は、その後に挙げられる手段または要素または段階に制限するものとして解釈されるべきではない。たとえば、AおよびBを有する装置という表現の範囲は、要素AおよびBのみからなる装置に限定されるべきではない。本稿で使われる含む、含んでいるという用語の任意のものも、少なくともその用語に続く要素/特徴を含むが他のものを排除しないことを意味する。よって、含むは、有すると同義であり、有するを意味する。
本稿での用法では、用語「例示的」は、性質を示すのではなく、例を挙げる意味で使われる。すなわち、「例示的実施形態」は、必ず例示的な性質の実施形態であるのではなく、例として与えられている実施形態である。
本発明の例示的実施形態の上記の記述において、開示の流れをよくし、さまざまな発明側面の一つまたは複数のものの理解を助けるため、本発明のさまざまな特徴が時に単一の実施形態、図面またはその記述にまとめられていることを注意しておくべきである。しかしながら、この開示法は、請求される発明が、各請求項に明示的に記載されているよりも多くの事項を必要とするという意図を反映したものと解釈されるものではない。むしろ、付属の請求項が反映するように、発明の諸側面は、単一の上記の開示される実施形態の全事項よりも少ないものに存する。このように、付属の請求項は、ここに明示的に詳細な説明に組み込まれ、各請求項がそれ自身として本発明の別個の実施形態をなす。
さらに、本稿に記載されるいくつかの実施形態が他の実施形態に含まれるいくつかの特徴を含むが他の特徴を含まなくても、異なる実施形態の特徴の組み合わせは本発明の範囲内であり、異なる実施形態をなすことが意図されている。当業者はこれを理解するであろう。たとえば、付属の請求項では、請求される実施形態の任意のものが任意の組み合わせにおいて使用できる。
さらに、実施形態のいくつかは、本稿では方法または方法の要素の組み合わせであって、コンピュータ・システムのプロセッサによってまたは該機能を実行する他の手段によって実装されることができるものとして記述されている。よって、そのような方法または方法の要素を実行するための必要な命令をもつプロセッサは、前記方法または方法の要素を実行する手段をなす。さらに、装置実施形態の本稿に記載される要素は、本発明を実行するための該要素によって実行される機能を実行する手段の一例である。
本稿で与えられる記述では、数多くの個別的詳細が記載される。しかしながら、本発明の実施形態がそうした個別的詳細なしでも実施できることは理解される。他方、本記述の理解をかすませないために、よく知られた方法、構造および技法は詳細に示していない。
同様に、請求項において使われるときの用語、結合されたは、直接接続のみに限定されるものと解釈されるべきではない。用語「結合された」および「接続された」ならびにその派生形が使われることがある。これらの用語は互いの同義語として意図されていないことを理解しておくべきである。よって、装置Bに結合された装置Aという表現の範囲は、装置Aの出力が装置Bの入力に直接接続される装置またはシステムに限定されるべきではない。それは、Aの出力とBの入力との間の経路が存在することを意味し、該経路は他の装置または手段を含む経路であってもよい。「結合された」は二つ以上の要素が直接物理的または電気的に接していること、あるいは二つ以上の要素が互いに直接接触してはいないが、それでも互いと協働または相互作用することを意味しうる。
このように、本発明の実施形態を記述してきたが、当業者は本発明の精神から外れることなく、それに他のおよびさらなる修正がなされてもよいことを認識するであろう。それらすべての変更および修正を本発明の範囲内にはいるものとして請求することが意図されている。たとえば、上記の公式はいずれも単に使用されうる手順の代表である。ブロック図から機能が追加または削除されてもよく、機能ブロックの間で動作が交換されてもよい。本発明の範囲内で記述される方法に段階が追加または削除されてもよい。
以下の付番実施例(EEE: enumerated example embodiment)から、本発明のさまざまな側面が理解されうる。
〔EEE1〕
再生のためにチャネル・ベースまたはオブジェクト・ベースの入力オーディオをエンコードする方法であって:
(a)前記チャネル・ベースまたはオブジェクト・ベースの入力オーディオを初期の出力呈示に初期にレンダリングし;
(b)前記チャネル・ベースまたはオブジェクト・ベースの入力オーディオから優勢オーディオ成分の推定値を決定し、前記初期の出力呈示を前記優勢オーディオ成分にマッピングするための一連の優勢オーディオ成分重み付け因子を決定し;
(c)前記優勢オーディオ成分の方向または位置の推定値を決定し;
(d)前記初期の出力呈示、前記優勢オーディオ成分重み付け因子、前記優勢オーディオ成分の方向または位置を、再生のためのエンコードされた信号としてエンコードすることを含む、
方法。
〔EEE2〕
前記初期の出力呈示より前記優勢オーディオ成分もしくはその前記推定値のいずれかのレンダリングだけ小さいものである残差混合の推定値を決定することをさらに含む、EEE1記載の方法。
〔EEE3〕
前記チャネル・ベースまたはオブジェクト・ベースの入力オーディオの無残響のバイノーラル混合を生成し、残差混合の推定値を決定することを含み、ここで、前記残差混合の推定値は、前記無残響のバイノーラル混合より、前記優勢オーディオ成分もしくはその前記推定値のいずれかのレンダリングだけ小さいものである、EEE1記載の方法。
〔EEE4〕
前記初期の出力呈示を前記残差混合の推定値にマッピングするための一連の残差行列係数を決定することをさらに含む、EEE2または3記載の方法。
〔EEE5〕
前記初期の出力呈示は、ヘッドフォンまたはラウドスピーカー呈示を含む、EEE1ないし4のうちいずれか一項記載の方法。
〔EEE6〕
前記チャネル・ベースまたはオブジェクト・ベースの入力オーディオは、時間および周波数タイリングされ、前記エンコードする段階は、一連の時間ステップおよび一連の周波数帯域について繰り返される、EEE1ないし5のうちいずれか一項記載の方法。
〔EEE7〕
前記初期の出力呈示は、ステレオ・スピーカー混合を含む、EEE1ないし6のうちいずれか一項記載の方法。
〔EEE8〕
エンコードされたオーディオ信号をデコードする方法であって、前記エンコードされたオーディオ信号は:
・初期の出力呈示と;
・優勢オーディオ成分の方向および優勢オーディオ成分重み付け因子とを含み、
当該方法は:
(a)前記優勢オーディオ成分重み付け因子および初期の出力呈示を利用して、推定された優勢成分を決定し;
(b)前記優勢オーディオ成分の方向に従って、前記推定された優勢成分を、バイノーラル化により、意図される聴取者に対するある空間位置にレンダリングして、レンダリングされたバイノーラル化推定優勢成分を形成し;
(c)前記第一の出力呈示から残差成分推定値を再構成し;
(d)前記レンダリングされたバイノーラル化推定優勢成分および前記残差成分推定値を組み合わせて、出力空間化オーディオ・エンコード信号を形成する段階を含む、
方法。
〔EEE9〕
前記エンコードされたオーディオ信号はさらに、残差オーディオ信号を表わす一連の残差行列係数を含み、前記段階(c)はさらに:
(c1)前記残差行列係数を前記第一の出力呈示に適用して、前記残差成分推定値を再構成することを含む、
EEE8記載の方法。
〔EEE10〕
前記残差成分推定値は、前記第一の出力呈示から、前記レンダリングされたバイノーラル化推定優勢成分を引くことによって再構成される、EEE8記載の方法。
〔EEE11〕
前記段階(b)が、意図される聴取者の頭の配向を示す入力頭部追跡信号に基づく、前記推定された優勢成分の初期回転を含む、EEE8記載の方法。
〔EEE12〕
ヘッドフォンを使う聴取者のためのオーディオ・ストリームのデコードおよび再生のための方法であって、当該方法は:
(a)第一のオーディオ表現および追加的なオーディオ変換データを含むデータ・ストリームを受領する段階と;
(b)前記聴取者の配向を表わす頭部配向データを受領する段階と;
(c)前記第一のオーディオ表現および受領された変換データに基づいて一つまたは複数の補助信号を生成する段階と;
(d)前記第一のオーディオ表現および前記補助信号の組み合わせからなる第二のオーディオ表現を生成する段階であって、前記補助信号のうち一つまたは複数は、前記頭部配向データに応答して修正されている、段階と;
(e)前記第二のオーディオ表現を出力オーディオ・ストリームとして出力する段階とを含む、
方法。
〔EEE13〕
前記補助信号の前記修正は、音源位置から前記聴取者の耳までの音響経路のシミュレーションからなる、EEE12記載の方法。
〔EEE14〕
前記変換データは:行列処理係数と、音源位置または音源方向の少なくとも一方とからなる、EEE12または13記載の方法。
〔EEE15〕
変換プロセスは、時間または周波数の関数として適用される、EEE12ないし14のうちいずれか一項記載の方法。
〔EEE16〕
前記補助信号は、少なくとも一つの優勢成分を表わす、EEE12ないし15のうちいずれか一項記載の方法。
〔EEE17〕
前記変換データの一部として受領される前記音源位置または方向は、前記頭部配向データに応答して回転される、EEE12ないし16のうちいずれか一項記載の方法。
〔EEE18〕
最大回転量は、方位角または仰角において360度未満の値に制限される、EEE17記載の方法。
〔EEE19〕
前記二次表現は、前記第一の表現から、変換もしくはフィルタバンク領域において行列処理することによって得られる、EEE12ないし18のうちいずれか一項記載の方法。
〔EEE20〕
前記変換データはさらに、追加的な行列処理係数を含み、段階(d)はさらに、前記第一のオーディオ呈示および前記補助オーディオ信号を組み合わせるのに先立って、前記追加的な行列処理係数に応答して前記第一のオーディオ呈示を修正することを含む、EEE12ないし19のうちいずれか一項記載の方法。
〔EEE21〕
EEE1ないし20のうちいずれか一項記載の方法を実行するよう構成された、一つまたは複数のデバイスを有する装置。
〔EEE22〕
一つまたは複数のプロセッサによって実行されたときにEEE1ないし20のうちいずれか一項記載の方法を一つまたは複数のデバイスに実行させる、命令のプログラムを有するコンピュータ可読記憶媒体。

Claims (22)

  1. 再生のためにチャネル・ベースまたはオブジェクト・ベースの入力オーディオをエンコードする方法であって:
    (a)前記チャネル・ベースまたはオブジェクト・ベースの入力オーディオを初期の出力呈示に初期にレンダリングし;
    (b)前記チャネル・ベースまたはオブジェクト・ベースの入力オーディオから優勢オーディオ成分の推定値を決定し、前記初期の出力呈示を前記優勢オーディオ成分にマッピングするための一連の優勢オーディオ成分重み付け因子を決定して、前記優勢オーディオ成分重み付け因子および前記初期の出力呈示を利用して前記優勢成分の推定値を決定できるようにし;
    (c)前記優勢オーディオ成分の方向または位置の推定値を決定し;
    (d)前記初期の出力呈示、前記優勢オーディオ成分重み付け因子、前記優勢オーディオ成分の方向または位置を、再生のためのエンコードされた信号としてエンコードすることを含む、
    方法。
  2. 前記初期の出力呈示より前記優勢オーディオ成分もしくはその前記推定値のいずれかのレンダリングだけ小さいものである残差混合の推定値を決定することをさらに含む、請求項1記載の方法。
  3. 前記チャネル・ベースまたはオブジェクト・ベースの入力オーディオの無残響のバイノーラル混合を生成し、残差混合の推定値を決定することを含み、ここで、前記残差混合の推定値は、前記無残響のバイノーラル混合より、前記優勢オーディオ成分もしくはその前記推定値のいずれかのレンダリングだけ小さいものである、請求項1記載の方法。
  4. 前記初期の出力呈示を前記残差混合の推定値にマッピングするための一連の残差行列係数を決定することをさらに含む、請求項2または3記載の方法。
  5. 前記初期の出力呈示は、ヘッドフォンまたはラウドスピーカー呈示を含む、請求項1ないし4のうちいずれか一項記載の方法。
  6. 前記チャネル・ベースまたはオブジェクト・ベースの入力オーディオは、時間および周波数タイリングされ、前記エンコードする段階は、一連の時間ステップおよび一連の周波数帯域について繰り返される、請求項1ないし5のうちいずれか一項記載の方法。
  7. 前記初期の出力呈示は、ステレオ・スピーカー混合を含む、請求項1ないし6のうちいずれか一項記載の方法。
  8. エンコードされたオーディオ信号をデコードする方法であって、前記エンコードされたオーディオ信号は:
    ・初期の出力呈示と;
    ・優勢オーディオ成分の方向および優勢オーディオ成分重み付け因子とを含み、
    当該方法は:
    (a)前記優勢オーディオ成分重み付け因子および初期の出力呈示を利用して、推定された優勢成分を決定し;
    (b)前記優勢オーディオ成分の方向に従って、前記推定された優勢成分を、バイノーラル化により、意図される聴取者に対するある空間位置にレンダリングして、レンダリングされたバイノーラル化推定優勢成分を形成し;
    (c)前記初期の出力呈示から残差成分推定値を再構成し;
    (d)前記レンダリングされたバイノーラル化推定優勢成分および前記残差成分推定値を組み合わせて、出力空間化オーディオ・エンコード信号を形成する段階を含む、
    方法。
  9. 前記エンコードされたオーディオ信号はさらに、残差オーディオ信号を表わす一連の残差行列係数を含み、前記段階(c)はさらに:
    (c1)前記残差行列係数を前記初期の出力呈示に適用して、前記残差成分推定値を再構成することを含む、
    請求項8記載の方法。
  10. 前記残差成分推定値は、前記初期の出力呈示から、前記レンダリングされたバイノーラル化推定優勢成分を引くことによって再構成される、請求項8記載の方法。
  11. 前記段階(b)が、意図される聴取者の頭の配向を示す入力頭部追跡信号に基づく、前記推定された優勢成分の初期回転を含む、請求項8ないし10のうちいずれか一項記載の方法。
  12. ヘッドフォンを使う聴取者のためのオーディオ・ストリームのデコードおよび再生のための方法であって、当該方法は:
    (a)第一のオーディオ表現および追加的なオーディオ変換データを含むデータ・ストリームを受領する段階と;
    (b)前記聴取者の配向を表わす頭部配向データを受領する段階と;
    (c)前記第一のオーディオ表現および受領された変換データに基づいて一つまたは複数の補助信号を生成する段階と;
    (d)前記第一のオーディオ表現および前記補助信号の組み合わせからなる第二のオーディオ表現を生成する段階であって、前記補助信号のうち一つまたは複数は、前記頭部配向データに応答して修正されている、段階と;
    (e)前記第二のオーディオ表現を出力オーディオ・ストリームとして出力する段階とを含む、
    方法。
  13. 前記補助信号の前記修正は、音源位置から前記聴取者の耳までの音響経路のシミュレーションからなる、請求項12記載の方法。
  14. 前記変換データは:行列処理係数と、音源位置または音源方向の少なくとも一方とからなる、請求項12または13記載の方法。
  15. 変換プロセスは、時間または周波数の関数として適用される、請求項12ないし14のうちいずれか一項記載の方法。
  16. 前記補助信号は、少なくとも一つの優勢成分を表わす、請求項12ないし15のうちいずれか一項記載の方法。
  17. 前記変換データの一部として受領される前記音源位置または方向は、前記頭部配向データに応答して回転される、請求項12ないし16のうちいずれか一項記載の方法。
  18. 最大回転量は、方位角または仰角において360度未満の値に制限される、請求項17記載の方法。
  19. 前記二次表現は、前記第一の表現から、変換もしくはフィルタバンク領域において行列処理することによって得られる、請求項12ないし17のうちいずれか一項記載の方法。
  20. 前記変換データはさらに、追加的な行列処理係数を含み、段階(d)はさらに、前記第一のオーディオ呈示および前記補助オーディオ信号を組み合わせるのに先立って、前記追加的な行列処理係数に応答して前記第一のオーディオ呈示を修正することを含む、請求項12ないし19のうちいずれか一項記載の方法。
  21. 請求項1ないし20のうちいずれか一項記載の方法を実行するよう構成された、一つまたは複数のデバイスを有する装置。
  22. 一つまたは複数のプロセッサによって実行されたときに請求項1ないし20のうちいずれか一項記載の方法を一つまたは複数のデバイスに実行させる、命令のプログラムを有するコンピュータ可読記憶媒体。
JP2018525387A 2015-11-17 2016-11-17 パラメトリック・バイノーラル出力システムおよび方法のための頭部追跡 Active JP6740347B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020052041A JP6964703B2 (ja) 2015-11-17 2020-03-24 パラメトリック・バイノーラル出力システムおよび方法のための頭部追跡

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201562256462P 2015-11-17 2015-11-17
US62/256,462 2015-11-17
EP15199854.9 2015-12-14
EP15199854 2015-12-14
PCT/US2016/062497 WO2017087650A1 (en) 2015-11-17 2016-11-17 Headtracking for parametric binaural output system and method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020052041A Division JP6964703B2 (ja) 2015-11-17 2020-03-24 パラメトリック・バイノーラル出力システムおよび方法のための頭部追跡

Publications (2)

Publication Number Publication Date
JP2018537710A true JP2018537710A (ja) 2018-12-20
JP6740347B2 JP6740347B2 (ja) 2020-08-12

Family

ID=55027285

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018525387A Active JP6740347B2 (ja) 2015-11-17 2016-11-17 パラメトリック・バイノーラル出力システムおよび方法のための頭部追跡

Country Status (15)

Country Link
US (2) US10362431B2 (ja)
EP (3) EP3378239B1 (ja)
JP (1) JP6740347B2 (ja)
KR (2) KR102586089B1 (ja)
CN (2) CN108476366B (ja)
AU (2) AU2016355673B2 (ja)
BR (2) BR122020025280B1 (ja)
CA (2) CA3005113C (ja)
CL (1) CL2018001287A1 (ja)
ES (1) ES2950001T3 (ja)
IL (1) IL259348B (ja)
MY (1) MY188581A (ja)
SG (1) SG11201803909TA (ja)
UA (1) UA125582C2 (ja)
WO (1) WO2017087650A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017035281A2 (en) 2015-08-25 2017-03-02 Dolby International Ab Audio encoding and decoding using presentation transform parameters
WO2018152004A1 (en) * 2017-02-15 2018-08-23 Pcms Holdings, Inc. Contextual filtering for immersive audio
CN111052770B (zh) * 2017-09-29 2021-12-03 苹果公司 空间音频下混频的方法及系统
US11004457B2 (en) * 2017-10-18 2021-05-11 Htc Corporation Sound reproducing method, apparatus and non-transitory computer readable storage medium thereof
EP3704875B1 (en) 2017-10-30 2023-05-31 Dolby Laboratories Licensing Corporation Virtual rendering of object based audio over an arbitrary set of loudspeakers
US11032662B2 (en) 2018-05-30 2021-06-08 Qualcomm Incorporated Adjusting audio characteristics for augmented reality
TWI683582B (zh) * 2018-09-06 2020-01-21 宏碁股份有限公司 增益動態調節之音效控制方法及音效輸出裝置
CN111615044B (zh) * 2019-02-25 2021-09-14 宏碁股份有限公司 声音信号的能量分布修正方法及其系统
CN113678473A (zh) * 2019-06-12 2021-11-19 谷歌有限责任公司 三维音频源空间化
US11076257B1 (en) * 2019-06-14 2021-07-27 EmbodyVR, Inc. Converting ambisonic audio to binaural audio
DE112021004444T5 (de) * 2020-08-27 2023-06-22 Apple Inc. Stereobasierte immersive codierung (stic)
US11750745B2 (en) * 2020-11-18 2023-09-05 Kelly Properties, Llc Processing and distribution of audio signals in a multi-party conferencing environment
EP4292086A1 (en) 2021-02-11 2023-12-20 Nuance Communications, Inc. Multi-channel speech compression system and method
CN113035209B (zh) * 2021-02-25 2023-07-04 北京达佳互联信息技术有限公司 三维音频获取方法和三维音频获取装置
US20240163629A1 (en) * 2022-11-11 2024-05-16 Bang & Olufsen, A/S Adaptive sound scene rotation

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AUPO316296A0 (en) * 1996-10-23 1996-11-14 Lake Dsp Pty Limited Dithered binaural system
WO1999014983A1 (en) 1997-09-16 1999-03-25 Lake Dsp Pty. Limited Utilisation of filtering effects in stereo headphone devices to enhance spatialization of source around a listener
JPH11220797A (ja) * 1998-02-03 1999-08-10 Sony Corp ヘッドホン装置
JP4088725B2 (ja) * 1998-03-30 2008-05-21 ソニー株式会社 オーディオ再生装置
US6016473A (en) * 1998-04-07 2000-01-18 Dolby; Ray M. Low bit-rate spatial coding method and system
US6839438B1 (en) 1999-08-31 2005-01-04 Creative Technology, Ltd Positional audio rendering
JP5306565B2 (ja) 1999-09-29 2013-10-02 ヤマハ株式会社 音響指向方法および装置
US7660424B2 (en) 2001-02-07 2010-02-09 Dolby Laboratories Licensing Corporation Audio channel spatial translation
US7076204B2 (en) 2001-10-30 2006-07-11 Unwired Technology Llc Multiple channel wireless communication system
GB0419346D0 (en) * 2004-09-01 2004-09-29 Smyth Stephen M F Method and apparatus for improved headphone virtualisation
JP2006270649A (ja) * 2005-03-24 2006-10-05 Ntt Docomo Inc 音声・音響信号処理装置およびその方法
WO2007080212A1 (en) 2006-01-09 2007-07-19 Nokia Corporation Controlling the decoding of binaural audio signals
US20090052703A1 (en) 2006-04-04 2009-02-26 Aalborg Universitet System and Method Tracking the Position of a Listener and Transmitting Binaural Audio Data to the Listener
US8379868B2 (en) 2006-05-17 2013-02-19 Creative Technology Ltd Spatial audio coding based on universal spatial cues
US7876903B2 (en) 2006-07-07 2011-01-25 Harris Corporation Method and apparatus for creating a multi-dimensional communication space for use in a binaural audio system
WO2008039038A1 (en) 2006-09-29 2008-04-03 Electronics And Telecommunications Research Institute Apparatus and method for coding and decoding multi-object audio signal with various channel
DE602007013415D1 (de) 2006-10-16 2011-05-05 Dolby Sweden Ab Erweiterte codierung und parameterrepräsentation einer mehrkanaligen heruntergemischten objektcodierung
ES2452348T3 (es) 2007-04-26 2014-04-01 Dolby International Ab Aparato y procedimiento para sintetizar una señal de salida
CN101889307B (zh) * 2007-10-04 2013-01-23 创新科技有限公司 相位-幅度3d立体声编码器和解码器
KR101567461B1 (ko) * 2009-11-16 2015-11-09 삼성전자주식회사 다채널 사운드 신호 생성 장치
US8587631B2 (en) 2010-06-29 2013-11-19 Alcatel Lucent Facilitating communications using a portable communication device and directed sound output
US8767968B2 (en) 2010-10-13 2014-07-01 Microsoft Corporation System and method for high-precision 3-dimensional audio for augmented reality
US9552840B2 (en) 2010-10-25 2017-01-24 Qualcomm Incorporated Three-dimensional sound capturing and reproducing with multi-microphones
EP2665208A1 (en) * 2012-05-14 2013-11-20 Thomson Licensing Method and apparatus for compressing and decompressing a Higher Order Ambisonics signal representation
EP2904817A4 (en) 2012-10-01 2016-06-15 Nokia Technologies Oy APPARATUS AND METHOD FOR REPRODUCING RECORDED AUDIO DATA WITH CORRECT SPACE ORIENTATION
EP2743922A1 (en) * 2012-12-12 2014-06-18 Thomson Licensing Method and apparatus for compressing and decompressing a higher order ambisonics representation for a sound field
EP3005344A4 (en) 2013-05-31 2017-02-22 Nokia Technologies OY An audio scene apparatus
ES2755349T3 (es) * 2013-10-31 2020-04-22 Dolby Laboratories Licensing Corp Renderización binaural para auriculares utilizando procesamiento de metadatos
EP3251116A4 (en) * 2015-01-30 2018-07-25 DTS, Inc. System and method for capturing, encoding, distributing, and decoding immersive audio
WO2017035281A2 (en) 2015-08-25 2017-03-02 Dolby International Ab Audio encoding and decoding using presentation transform parameters

Also Published As

Publication number Publication date
US10362431B2 (en) 2019-07-23
EP4236375A3 (en) 2023-10-11
CA3005113C (en) 2020-07-21
CN108476366A (zh) 2018-08-31
EP3716653B1 (en) 2023-06-07
KR20230145232A (ko) 2023-10-17
IL259348A (en) 2018-07-31
KR20180082461A (ko) 2018-07-18
KR102586089B1 (ko) 2023-10-10
CN108476366B (zh) 2021-03-26
UA125582C2 (uk) 2022-04-27
US20180359596A1 (en) 2018-12-13
AU2020200448B2 (en) 2021-12-23
CA3080981C (en) 2023-07-11
BR122020025280B1 (pt) 2024-03-05
BR112018010073B1 (pt) 2024-01-23
CA3080981A1 (en) 2017-05-26
MY188581A (en) 2021-12-22
EP3378239A1 (en) 2018-09-26
ES2950001T3 (es) 2023-10-04
AU2016355673A1 (en) 2018-05-31
EP3378239B1 (en) 2020-02-19
CL2018001287A1 (es) 2018-07-20
WO2017087650A1 (en) 2017-05-26
CA3005113A1 (en) 2017-05-26
IL259348B (en) 2020-05-31
EP4236375A2 (en) 2023-08-30
BR112018010073A2 (pt) 2018-11-13
AU2016355673B2 (en) 2019-10-24
EP3716653A1 (en) 2020-09-30
US10893375B2 (en) 2021-01-12
US20190342694A1 (en) 2019-11-07
CN113038354A (zh) 2021-06-25
JP6740347B2 (ja) 2020-08-12
AU2020200448A1 (en) 2020-02-13
SG11201803909TA (en) 2018-06-28

Similar Documents

Publication Publication Date Title
AU2020200448B2 (en) Headtracking for parametric binaural output system and method
JP7119060B2 (ja) マルチポイント音場記述を使用して拡張音場記述または修正音場記述を生成するためのコンセプト
JP5698189B2 (ja) オーディオ符号化
EP3569000B1 (en) Dynamic equalization for cross-talk cancellation
JP2009522610A (ja) バイノーラルオーディオ信号の復号制御
JP2018529121A (ja) オーディオ・デコーダおよびデコード方法
JP6964703B2 (ja) パラメトリック・バイノーラル出力システムおよび方法のための頭部追跡
RU2818687C2 (ru) Система и способ слежения за движением головы для получения параметрического бинаурального выходного сигнала

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190312

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190604

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200324

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200401

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200623

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200722

R150 Certificate of patent or registration of utility model

Ref document number: 6740347

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250