JP2021036722A - 空間化オーディオを用いた複合現実システム - Google Patents

空間化オーディオを用いた複合現実システム Download PDF

Info

Publication number
JP2021036722A
JP2021036722A JP2020192230A JP2020192230A JP2021036722A JP 2021036722 A JP2021036722 A JP 2021036722A JP 2020192230 A JP2020192230 A JP 2020192230A JP 2020192230 A JP2020192230 A JP 2020192230A JP 2021036722 A JP2021036722 A JP 2021036722A
Authority
JP
Japan
Prior art keywords
cinema
audio
spatialized
user
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020192230A
Other languages
English (en)
Other versions
JP7118121B2 (ja
Inventor
トーマス ローチ デイビッド
Thomas Roach David
トーマス ローチ デイビッド
エー. ミラー サミュエル
A Miller Samuel
エー. ミラー サミュエル
アリステア サンガー ジョージ
Alistair Sanger George
アリステア サンガー ジョージ
シュミット ブライアン
Schmidt Brian
シュミット ブライアン
マイケル オガーラ テリー
Micheal O'gara Terry
マイケル オガーラ テリー
アンドレエヴナ タジク アナスタシア
Andreyevna Tajik Anastasia
アンドレエヴナ タジク アナスタシア
タジク ジェハンギール
Tajik Jehangir
タジク ジェハンギール
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Magic Leap Inc
Original Assignee
Magic Leap Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Magic Leap Inc filed Critical Magic Leap Inc
Publication of JP2021036722A publication Critical patent/JP2021036722A/ja
Priority to JP2022123243A priority Critical patent/JP7270820B2/ja
Application granted granted Critical
Publication of JP7118121B2 publication Critical patent/JP7118121B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/15Aspects of sound capture and related signal processing for recording or reproduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • H04S7/304For headphones

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Stereophonic System (AREA)
  • Details Of Audible-Bandwidth Transducers (AREA)
  • Studio Devices (AREA)
  • Holo Graphy (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】空間化オーディオを用いた仮想現実システム、拡張現実システム又は複合現実システムを提供する。
【解決手段】シネマディスプレイ/画面408、空間化シネマオーディオシステム502およびパーソナル空間化オーディオシステム202を含む個人化された空間化シネマオーディオシステム500であって、空間化シネマオーディオシステムは、複数のシネマスピーカ506−1、506−2、506−3、506−4を含む。パーソナル空間化オーディオシステムは、聴取者の頭部200上に装着されるフレーム204と、フレームに取り付けられる複数のパーソナル空間化オーディオシステムスピーカ206−1、206−2、206−3、206−4とを含む。パーソナル空間化オーディオシステムはまた、頭部姿勢センサを含み、ユーザの頭部姿勢データを収集し、ユーザの頭部姿勢に基づいて、パーソナルオーディオデータを生成する。
【選択図】図16

Description

(関連出願の相互参照)
本願は、2016年8月1日に出願され“MIXED REALITY SYSTEM WITH SPATIALIZED AUDIO”と題された米国仮出願第62/369,561号(代理人管理番号ML.30041.00)に対する優先権を主張するものである。本願は、2014年2月4日に出願された米国仮特許出願第62/291,363号(代理人管理番号ML.30043.00)、2014年6月14日に出願された米国仮特許出願第62/012,273号(代理人管理番号ML.30019.00)、2013年6月13日に出願された米国特許出願第14/738,877号(代理人管理番号ML.20019.00)、2014年11月27日に出願された米国特許出願第14/555,585号(代理人管理番号ML.20011.00)に関連している。これらの特許出願の内容は、全体が開示されているかのように、それらの全体が参照により本明細書中に明示的かつ全体的に援用される。上記で援用した特許出願に記載されているのは、空間化オーディオシステムを含む仮想現実システム、拡張現実システム、または複合現実システムの種々の実施形態である。本明細書中で記載されるのは、空間化オーディオシステムおよび方法を伴う仮想現実システム、拡張現実システム、または複合現実システムのさらなる実施形態である。
本開示は、空間化オーディオシステムを用いた仮想、拡張、または複合現実、個人化されたシネマビデオおよびオーディオシステム、ならびにそれを使用して、空間化オーディオを含む、仮想現実、拡張現実、または複合現実体験を生成するための方法に関する。
ホームシアターおよびビデオゲームのためのもの等の現在の空間化オーディオシステムは、「5.1」および「7.1」フォーマットを利用する。5.1空間化オーディオシステムは、左および右正面チャネルと、左および右背面チャネルと、中心チャネルと、サブウーファとを含む。7.1空間化オーディオシステムは、5.1オーディオシステムのチャネルと、意図される聴取者と整合される、左および右チャネルとを含む。前述のチャネルはそれぞれ、別個のスピーカに対応する。シネマオーディオシステムおよびシネマグレードホームシアターシステムは、DOLBY ATMOSを含み、これは、意図される聴取者の上方から送達されるように構成され、それによって、聴取者を音場内に没入させ、聴取者を音で囲繞する、チャネルを追加する。
空間化オーディオシステムにおける改良にもかかわらず、現在の空間化オーディオシステムは、複数の聴取者の個別の場所および配向は言うまでもなく、聴取者の場所および配向を考慮可能ではない。したがって、現在の空間化オーディオシステムは、全ての聴取者が、音場の中心に隣接して位置付けられ、システムの中心チャネルに面して配向され、最適性能のための聴取者位置および配向要件を有するという仮定で音場を生成する。故に、古典的1対多システムでは、空間化オーディオは、聴取者が偶然にも予期される配向の反対に面する場合、音が後方からであるように現れるように聴取者に送達され得る。そのような不整合音は、感覚および認知不一致につながり、空間化オーディオ体験およびそれとともに提示される任意の「仮想現実」または「拡張現実」体験を劣化させ得る。深刻な場合、感覚および認知不一致は、ユーザが、空間化オーディオ体験、「仮想現実」体験、または「拡張現実」体験を回避することにつながり得る、頭痛、吐き気、不快感等の生理学的副作用を生じさせる可能性がある。
現代のコンピューティングおよびディスプレイ技術は、いわゆる「仮想現実」(「VR」)、「拡張現実」(「AR」)、および「複合現実」(「MR」)体験のためのシステムの開発を促進しており、そこでは、デジタル的に再現されたものが、ユーザの実世界の中に統合され、それらが実世界環境の慣性基準フレーム内に存在する実オブジェクトであるかのように提示される。仮想現実または「VR」シナリオは、実世界のユーザのビューを閉塞しながら、デジタルまたは仮想画像情報の提示を伴うことができる。拡張現実または「AR」シナリオは、典型的には、ユーザの周囲の可視である実際の世界に対する拡張として、デジタルまたは仮想画像情報の提示を伴う(すなわち、他の実際の実世界の視覚的入力に対して透過性である)。複合現実または「MR」システムもまた、シミュレートされたオブジェクトを実世界環境の中に導入するが、これらのオブジェクトは、典型的には、ARシステムを上回る相互作用度を特徴とする。シミュレートされた要素は、多くの場合、リアルタイムで相互作用することができる。故に、ARおよびMRシナリオは、ユーザの実世界環境上に重畳されるデジタルまたは仮想画像情報の提示を伴い、これは、同時に、ユーザに可視である。
種々の光学システムが、VR/AR/MRシナリオを表示するために、画像を複数の深度で生成する。いくつかのそのような光学システムは、米国特許出願第14/738,877号(代理人管理番号第ML.20019.00号)および2014年11月27日に出願された米国特許出願第14/555,585号(代理人管理番号第ML.20011.00号)(その内容は、参照することによって前述で本明細書に組み込まれている)に説明される。
現在の空間化オーディオシステムは、3−Dシネマ、3−Dビデオゲーム、およびVR/AR/MRシステムにおけるもの等の3−D光学システムと協働し、光学的および音響的の両方において、仮想オブジェクトをレンダリングすることができる。オブジェクトは、それらが3次元空間内の個別の位置に位置する実際の物理的オブジェクトではないという点において、「仮想」である。代わりに、仮想オブジェクトは、それぞれ、観客の眼および/または耳に指向される光ビームおよび/または音波によって刺激されると、視認者および/または聴取者の脳(例えば、視覚および/または聴覚中枢)内のみに存在する。残念ながら、現在の空間化オーディオシステムの聴取者位置および配向要件は、定位置外聴取者のために仮想オブジェクトのオーディオ部分を現実的様式で作成するその能力を限定する。
現在の頭部装着型オーディオシステム(すなわち、ヘッドホンまたはイヤホン)は、空間化オーディオを生産するように構成されることができる。しかしながら、これらの頭部装着型オーディオシステムは、聴取者の耳上または内のいずれかに配置される。したがって、現在の頭部装着型オーディオシステムは、頭部装着型オーディオシステムと聴取者の耳との間の物理的接触から生じる触知信号を聴取者の脳に伝送する。これらの触知信号は、聴取者に、頭部装着型オーディオシステムによって生成された音が短距離から聴取者の耳に発出していることを示唆する、心理音響効果につながり得る。その結果、現在の頭部装着型オーディオシステムによって生産された空間化オーディオは、仮想オブジェクトのものと異なる場所から発出するように現れ得る。さらに、現在の頭部装着型オーディオシステムは、現在の空間化オーディオシステムのユーザ位置および配向要件に対処しない。
ホームシアターシステムにおける改良に伴って、従来の映画産業は、ホームシアターに対して、観客を失いつつある。故に、映画製作者および映画会社は、動画技術における改良を模索している。類似技術空間では、テーマパークの乗り物(すなわち、DISNEYのSTAR TOURS)に見出されるもの等の複合メディアシステムは、光および動き等の現実のような特殊効果を3−Dフィルムおよび空間化オーディオに追加することができる。しかしながら、そのようなシステムは、法外に高価であって、個人化されない。さらに、そのような複合メディアシステムは、現在の空間化オーディオシステムの固有のユーザ位置および配向要件に対処しない。
3−D複合メディアシステムのユーザは、典型的には、3−D画像の知覚を促進する、眼鏡を装着するように要求される。そのような眼鏡は、従来の立体写真式立体視3−Dシステムにおけるように、異なる偏光または色フィルタを伴う、左および右レンズを含有し得る。3−D複合メディアシステムは、立体視眼鏡を装着しているユーザにその左および右眼において若干異なる画像が見えるであろうように、異なる偏光または色を伴う重複画像を投影する。これらの画像における差異は、3−D光学画像を生成するために利用される。
同様に、空間オーディオシステムは、ユーザの頭部上に装着されることができる。しかしながら、前述の心理音響効果は、システムによってレンダリングされる仮想オーディオソースの知覚される位置に影響を及ぼすことによって、現在の頭部装着型空間オーディオシステムの有効性を低減させる。
要するに、現在の空間化オーディオシステムは、聴取者位置および配向制限と、移動する聴取者のため、ならびに種々の位置および配向における複数の聴取者のために、仮想オブジェクトに対応する空間オーディオをレンダリングする際にその有効性を限定する、心理音響効果とを有する。加えて、従来の2−Dおよび3−Dフィルム、2−Dおよび3−Dビデオゲーム、ならびに複合メディアシステムは、ユーザ位置および配向制限ならびに心理音響効果に対処する、複数の移動するユーザ/視認者/聴取者のための空間化オーディオを含む、個人化から利点を享受し得る。
一実施形態では、ユーザの頭部上に装着されるフレームを含む、空間化オーディオシステムを対象とする。本システムはまた、フレームがユーザによって装着されると、複数のスピーカのそれぞれが、ユーザの頭部から個別の非ゼロ距離に配置され、複数のスピーカのそれぞれが、ユーザの耳を含む、ユーザの頭部の任意の表面に接触しないように、フレームに取り付けられる、複数のスピーカを含む。本システムはさらに、ユーザの頭部姿勢データを収集するための頭部姿勢センサを含む。さらに、本システムは、ユーザの頭部姿勢を頭部姿勢データから決定するための頭部姿勢プロセッサを含む。加えて、本システムは、決定されたユーザの頭部姿勢に基づいて、空間化オーディオデータを生成するための空間化オーディオプロセッサを含む。
1つ以上の実施形態では、スピーカは、生成された空間化オーディオデータに対応する音を生成する。本システムはまた、複数のスピーカに結合される(例えば、緊密に結合される)、1つ以上の増幅器を含んでもよい。増幅器は、スピーカに適用される電流および電圧を監視し、スピーカの過駆動を回避するように構成される、スマート増幅器であってもよい。
1つ以上の実施形態では、生成された空間化オーディオデータは、複数の仮想オーディオソース毎に、位置、配向、および音量データを含む。複数のスピーカは、生成された音をユーザの耳に集束させてもよい。複数のスピーカはそれぞれ、変換器を含んでもよい。
1つ以上の実施形態では、フレームは、生成された音をユーザの耳に集束させる。フレームは、音響導波管を含み、生成された音をユーザの耳に指向してもよい。
1つ以上の実施形態では、頭部姿勢センサは、IMUおよび/または視覚的オドメトリシステムである。複数のスピーカは、フレームに除去可能に取り付けられてもよい。複数のスピーカは、個別の磁石を用いて、フレームに除去可能に取り付けられてもよい。
1つ以上の実施形態では、本システムはまた、空間化オーディオプロセッサに動作可能に結合される、シネマオーディオプロセッサを含み、シネマオーディオプロセッサは、シネマオーディオデータを生成する。本システムはさらに、生成されたシネマオーディオデータに対応するシネマサウンドを生成するための複数のシネマスピーカを含む。
1つ以上の実施形態では、空間化オーディオプロセッサは、タイミング情報/メタデータをシネマオーディオプロセッサから受信し、音とシネマサウンドを同期させる。タイミング情報は、タイムコードおよび/またはキューを含んでもよい。本システムはまた、無線ネットワークを含むことができ、シネマオーディオプロセッサは、無線ネットワークを経由して、タイミング情報を空間化オーディオプロセッサに伝送する。タイミング情報はまた、生成されたシネマサウンドに対応するビデオ内の光学キューを含んでもよい。タイミング情報はまた、生成されたシネマサウンドに対応するビデオから別個に投影される、光学キューを含んでもよい。タイミング情報はまた、赤外線光を用いて投影される、光学キューを含んでもよい。
1つ以上の実施形態では、シネマオーディオプロセッサは、シネマ情報を空間化オーディオプロセッサに伝送する。シネマ情報は、タイミング情報、仮想オブジェクト音情報、位置情報、配向情報、ハイパーリンク、または音響モデル化情報のうちの1つを含んでもよい。仮想オブジェクト音情報は、モノオーディオストリームを含んでもよい。
1つ以上の実施形態では、空間化オーディオプロセッサは、第1の時間において、第1のタイミング情報をシネマオーディオプロセッサから受信し、第1の時間において、音とシネマサウンドを同期させ、空間化オーディオプロセッサは、第1の時間より後の第2の時間において、第2のタイミング情報をシネマオーディオプロセッサから受信し、第2の時間において、音とシネマサウンドを同期させる。
1つ以上の実施形態では、空間化オーディオプロセッサは、空間化オーディオデータを空間化オーディオソースデータから生成する。空間化オーディオソースデータは、空間化オーディオプロセッサ上に事前にロードされてもよい。空間化オーディオソースデータは、空間化オーディオプロセッサにストリームされてもよい。ストリームされた空間化オーディオソースデータは、空間化オーディオプロセッサにバッファ/キャッシュされてもよい。
1つ以上の実施形態では、空間化オーディオプロセッサは、空間化オーディオプロセッサ/複数のスピーカとシネマオーディオプロセッサ/複数のシネマスピーカとの間の待ち時間差を補償する。
1つ以上の実施形態では、本システムはまた、ユーザセンサを含み、シネマオーディオプロセッサへの伝送のためのユーザ情報を収集する。ユーザセンサは、フレームに取り付けられてもよい。シネマオーディオプロセッサは、シネマサウンドが修正されたシネマオーディオデータに対応するように、ユーザ情報に基づいて、シネマオーディオデータを修正してもよい。ユーザ情報は、ユーザからのサンプリングされた音を含んでもよく、修正されたシネマオーディオデータは、サンプリングされた音を組み込む。
1つ以上の実施形態では、複数のシネマスピーカは、低周波数音を生成するように構成される、サブウーファを含む。ユーザ情報は、低周波数オーディオデータを含む。シネマオーディオプロセッサは、低周波数オーディオデータに基づいて、シネマオーディオデータを修正し、サブウーファは、修正されたシネマオーディオデータに対応する低周波数音を生成する。サブウーファは、ユーザのための座席に隣接して配置されてもよい。サブウーファは、ユーザによって装着されてもよい。
1つ以上の実施形態では、本システムはまた、空間化オーディオプロセッサに動作可能に結合される、アプリケーションプロセッサを含み、空間化オーディオプロセッサが空間化オーディオデータを生成する、ソースデータを提供する。アプリケーションプロセッサは、シネマオーディオプロセッサに動作可能に結合されてもよい。アプリケーションプロセッサは、空間化オーディオデータとシネマオーディオデータを同期させてもよい。シネマオーディオデータは、分岐構造内に編成されてもよく、修正されたシネマオーディオデータは、シネマオーディオデータの分岐構造より小さい修正された分岐構造を有する。
1つ以上の実施形態では、本システムはまた、フレームに取り付けられ、シネマサウンドを記録する、マイクロホンを含む。本システムはさらに、空間化オーディオプロセッサに動作可能に結合される、同期モジュールを含み、同期モジュールは、記録されたシネマサウンドを分析し、シネマサウンドトラックおよびシネマサウンドトラック内の時間を識別する。同期モジュールはまた、シネマサウンドトラックの識別およびシネマサウンドトラック内の識別された時間に基づいて、タイミング情報を生成し、音とシネマサウンドを同期させる。マイクロホンは、シネマサウンドの再生の間、後の時間においてシネマサウンドを記録してもよく、同期モジュールは、後の記録されたシネマサウンドを分析し、シネマサウンドトラック内の後の時間を識別し、音とシネマサウンドとの間の同期を維持する。
1つ以上の実施形態では、本システムはまた、シネマサウンドトラックデータベースを含み、同期モジュールは、記録されたシネマサウンドとシネマサウンドトラックデータベースを比較し、シネマサウンドトラックおよびシネマサウンドトラック内の時間を識別する。同期モジュールは、記録されたシネマサウンドからの第1の記録されたパケットとシネマサウンドトラックデータベースからの第1のデータベースパケットとの間の第1の合致を識別してもよい。同期モジュールは、同期モジュールが第1の合致を識別した後、記録されたシネマサウンドからの第2の記録されたパケットとシネマサウンドトラックデータベースからの第2のデータベースパケットとの間の第2の合致を識別してもよい。
1つ以上の実施形態では、シネマサウンドトラックデータベースは、複数の音調クラスタを含む。シネマサウンドトラックデータベースは、音調クラスタに対応する識別子、シネマサウンドトラック内の個別の時間、および音調クラスタに続く音調クラスタのシーケンスを含んでもよい。同期モジュールは、記録されたシネマサウンドとシネマサウンドトラックデータベースを比較してもよく、これは、記録されたシネマサウンド内の音調クラスタとシネマサウンドトラックデータベース内の音調クラスタを合致させることを含む。複数の音調クラスタの各音調クラスタは、約1ms長であってもよい。
1つ以上の実施形態では、本システムはまた、シネマサウンドトラックデータベースビルダを含み、シネマサウンドトラックを走査し、その中の複数の音調クラスタを識別する。タイミング情報は、タイムコードを含んでもよい。
1つ以上の実施形態では、空間化オーディオシステムは、複数のパーソナルオーディオデバイスを含む。複数のパーソナルオーディオデバイスはそれぞれ、ユーザの頭部上に装着されるフレームを含む。各パーソナルオーディオデバイスはまた、フレームがユーザによって装着されると、複数のスピーカのそれぞれが、ユーザの頭部から個別の非ゼロ距離に配置され、複数のスピーカのそれぞれが、ユーザの耳を含む、ユーザの頭部に接触しないように、フレームに取り付けられる、複数のスピーカを含む。各パーソナルオーディオデバイスはさらに、ユーザの頭部姿勢データを収集するための頭部姿勢センサを含む。さらに、各パーソナルオーディオデバイスは、ユーザの頭部姿勢を頭部姿勢データから決定するための頭部姿勢プロセッサを含む。加えて、各パーソナルオーディオデバイスは、ユーザの決定された頭部姿勢および特性に基づいて、空間化オーディオデータを生成するための空間化オーディオプロセッサを含む。本システムはまた、空間化オーディオプロセッサに動作可能に結合される、シネマオーディオプロセッサを含み、シネマオーディオプロセッサは、シネマオーディオデータを生成する。本システムはさらに、生成されたシネマオーディオデータに対応するシネマサウンドを生成するための複数のシネマスピーカを含む。複数のスピーカはそれぞれ、個別の生成された空間化オーディオデータに対応する音を生成する。
1つ以上の実施形態では、複数のパーソナルオーディオデバイスの第1のパーソナルオーディオデバイスの第1のユーザのための第1の生成された空間化オーディオデータは、第1のユーザの第1の特性が、第2のユーザの第2の特性と異なるため、複数のパーソナルオーディオデバイスの第2のパーソナルオーディオデバイスの第2のユーザのための第2の生成された空間化オーディオデータと異なる。第1および第2の特性は、ゲームにおける異なるレベルであってもよい。第1および第2の特性は、異なる個人的選好であってもよい。第1および第2の特性は、ユーザ焦点の異なる場所であってもよい。第1および第2の特性は、映画館内の異なる場所であってもよい。第1および第2の特性は、注意の異なるインジケータであってもよい。第1および第2の特性は、それぞれ、第1および第2のユーザによって放出される異なる音であってもよい。
1つ以上の実施形態では、本システムはまた、部屋センサを含み、ユーザが配置される部屋の音響性質を測定し、空間化オーディオプロセッサは、決定されたユーザの頭部姿勢および部屋の測定された音響性質に基づいて、空間化オーディオデータを生成する。部屋センサは、マイクロホンであって、部屋音を収集し、部屋の音響性質を測定してもよい。部屋センサは、カメラであって、部屋画像を収集し、部屋の音響性質を測定してもよい。
別の実施形態では、AR/MRシステムは、仮想画像を生成するためのディスプレイシステムを含む。本システムはまた、上記に説明される空間化オーディオシステムを含む。仮想画像および生成された音は、同期される。
1つ以上の実施形態では、生成された音は、仮想オブジェクトから発出するように現れる。生成された音は、実際の物理的オブジェクトから発出するように現れてもよい。生成された音は、実際の物理的人物から発出するように現れてもよい。生成された音は、実際の物理的人物の口から発出するように現れてもよい。生成された音は、実際の物理的人物の実際の音声と異なってもよい。生成された音は、ユーザの周囲の複数のソースから発出するように現れてもよい。生成された音は、ユーザ内から発出するように現れてもよい。
さらに別の実施形態では、パーソナライズされたメディアシステムは、一般的メディアシステムを含み、これは、メディア製品に対応する一般的ビデオおよびオーディオデータを生成するための一般的メディアプロセッサを含む。一般的メディアシステムはまた、一般的ビデオデータに対応する一般的ライトフィールドを提示するための一般的メディアディスプレイを含む。一般的メディアシステムはさらに、一般的シネマオーディオデータに対応する一般的音場を提示するための複数の一般的メディアスピーカを含む。パーソナライズされたメディアシステムはまた、複数のパーソナルメディアデバイスを含む。複数のパーソナルメディアデバイスはそれぞれ、ユーザの姿勢データを収集するための姿勢センサを含む。各パーソナルメディアデバイスはまた、ユーザの姿勢を姿勢データから決定するための姿勢プロセッサを含む。各パーソナルメディアデバイスはさらに、ユーザの決定された姿勢および特性に基づいて、パーソナルビデオおよびオーディオデータを生成するためのパーソナルメディアプロセッサを含む。さらに、各パーソナルメディアデバイスは、ユーザの頭部上に装着されるフレームを含む。加えて、各パーソナルメディアデバイスは、フレームに取り付けられ、パーソナルビデオデータに対応するユーザのためのパーソナル3次元ライトフィールドを提示するように構成される、パーソナルディスプレイを含む。各パーソナルメディアデバイスはまた、フレームがユーザによって装着されると、複数のパーソナルスピーカのそれぞれが、ユーザの頭部から個別の非ゼロ距離に配置され、複数のパーソナルスピーカのそれぞれが、ユーザの耳を含む、ユーザの頭部に接触しないように、フレームに取り付けられる複数のパーソナルスピーカを含む。複数のパーソナルスピーカは、パーソナルオーディオデータに対応する、ユーザのためのパーソナル空間化音場を提示するように構成される。複数のパーソナルメディアデバイスはそれぞれ、個別のパーソナル3次元ライトフィールド、パーソナル空間化音場、一般的メディアライトフィールド、および一般的メディア音場が、ユーザのためのコヒーレントメディア体験を形成するように、一般的メディアシステムと同期される。
1つ以上の実施形態では、メディア製品は、シネマ製品、ゲーム製品、および/または複合メディア製品である。ユーザの特性は、ユーザの識別および/またはユーザの場所であってもよい。ユーザの特性は、メディアに関連するソフトウェアとのユーザの相互作用に関連してもよい。
1つ以上の実施形態では、メディア製品は、シネマ製品であって、ソフトウェアは、ゲームである。ユーザの姿勢は、頭部姿勢であってもよい。パーソナルディスプレイは、AR/MRディスプレイであってもよい。一般的メディアプロセッサは、一般的ライトフィールドの一部が空にされるように、一般的ビデオデータを修正するように構成されてもよく、一般的ライトフィールドの一部は、パーソナル3次元ライトフィールド内のオブジェクトの場所に対応する。
本発明は、例えば、以下を提供する。
(項目1)
空間化オーディオシステムであって、
ユーザの頭部上に装着されるフレームと、
複数のスピーカであって、前記複数のスピーカは、前記フレームが前記ユーザによって装着されると、前記複数のスピーカのそれぞれが、前記ユーザの頭部から個別の非ゼロ距離に配置され、前記複数のスピーカのそれぞれが、前記ユーザの耳を含む、前記ユーザの頭部の任意の表面に接触しないように、前記フレームに取り付けられる、複数のスピーカと、
前記ユーザの頭部姿勢データを収集するための頭部姿勢センサと、
前記ユーザの頭部姿勢を前記頭部姿勢データから決定するための頭部姿勢プロセッサと、
前記決定された前記ユーザの頭部姿勢に基づいて、空間化オーディオデータを生成するための空間化オーディオプロセッサと
を備え、
前記スピーカは、前記生成された空間化オーディオデータに対応する音を生成する、システム。
(項目2)
前記空間化オーディオプロセッサに動作可能に結合されるシネマオーディオプロセッサであって、前記シネマオーディオプロセッサは、前記シネマオーディオデータを生成する、シネマオーディオプロセッサと、
前記生成されたシネマオーディオデータに対応するシネマサウンドを生成するための複数のシネマスピーカと
をさらに備え、
前記空間化オーディオプロセッサは、タイミング情報/メタデータを前記シネマオーディオプロセッサから受信し、前記音と前記シネマサウンドを同期させる、項目1に記載のシステム。
(項目3)
前記空間化オーディオプロセッサは、タイミング情報/メタデータを前記シネマオーディオプロセッサから受信し、前記音と前記シネマサウンドを同期させる、項目2に記載のシステム。
(項目4)
無線ネットワークをさらに備え、前記シネマオーディオプロセッサは、前記無線ネットワークを経由して、前記タイミング情報を前記空間化オーディオプロセッサに伝送する、項目3に記載のシステム。
(項目5)
前記タイミング情報は、前記生成されたシネマサウンドに対応するビデオ内の光学キューを備え、光学キューは、前記生成されたシネマサウンドに対応するビデオから別個に投影される、または光学キューは、赤外線光を用いて投影される、項目3に記載のシステム。
(項目6)
前記シネマオーディオプロセッサは、シネマ情報を前記空間化オーディオプロセッサに伝送する、項目2に記載のシステム。
(項目7)
前記シネマ情報は、タイミング情報、仮想オブジェクト音情報、位置情報、配向情報、ハイパーリンク、または音響モデル化情報のうちの1つを備える、項目6に記載のシステム。
(項目8)
前記空間化オーディオプロセッサは、第1の時間において、第1のタイミング情報を前記シネマオーディオプロセッサから受信し、前記第1の時間において、前記音と前記シネマサウンドを同期させ、
前記空間化オーディオプロセッサは、前記第1の時間より後の第2の時間において、第2のタイミング情報を前記シネマオーディオプロセッサから受信し、前記第2の時間において、前記音と前記シネマサウンドを同期させる、
項目2に記載のシステム。
(項目9)
前記空間化オーディオプロセッサは、前記空間化オーディオプロセッサ/前記複数のスピーカと前記シネマオーディオプロセッサ/前記複数のシネマスピーカとの間の待ち時間差を補償する、項目2に記載のシステム。
(項目10)
ユーザセンサをさらに備え、前記ユーザセンサは、前記シネマオーディオプロセッサへの伝送のためのユーザ情報を収集する、項目2に記載のシステム。
(項目11)
前記シネマオーディオプロセッサは、前記シネマサウンドが修正されたシネマオーディオデータに対応するように、前記ユーザ情報に基づいて、前記シネマオーディオデータを修正する、項目10に記載のシステム。
(項目12)
前記複数のシネマスピーカは、低周波数音を生成するように構成されるサブウーファを含み、
前記ユーザ情報は、低周波数オーディオデータを含み、
前記シネマオーディオプロセッサは、前記低周波数オーディオデータに基づいて、前記シネマオーディオデータを修正し、
前記サブウーファは、前記修正されたシネマオーディオデータに対応する低周波数音を生成する、
項目11に記載のシステム。
(項目13)
前記サブウーファは、前記ユーザのための座席に隣接して配置される、または前記サブウーファは、前記ユーザによって装着される、項目12に記載のシステム。
(項目14)
前記シネマオーディオデータは、分岐構造内に編成され、
前記修正されたシネマオーディオデータは、前記シネマオーディオデータの分岐構造より小さい修正された分岐構造を有する、項目11に記載のシステム。
(項目15)
前記ユーザ情報は、前記ユーザからサンプリングされた音を含み、前記修正されたシネマオーディオデータは、サンプリングされた音を組み込む、項目10に記載のシステム。
(項目16)
前記空間化オーディオプロセッサに動作可能に結合されるアプリケーションプロセッサをさらに備え、前記アプリケーションプロセッサは、前記空間化オーディオプロセッサが前記空間化オーディオデータを生成するソースデータを提供する、項目2に記載のシステム。
(項目17)
前記アプリケーションプロセッサは、前記空間化オーディオデータと前記シネマオーディオデータを同期させる、項目16に記載のシステム。
(項目18)
前記フレームは、前記生成された音を前記ユーザの耳に集束させる、項目1に記載のシステム。
(項目19)
前記生成された空間化オーディオデータは、複数の仮想オーディオソース毎に、位置、配向、および音量データを含む、項目1に記載のシステム。
(項目20)
前記複数のスピーカは、個別の磁石を用いて、前記フレームに除去可能に取り付けられる、項目1に記載のシステム。
(項目21)
空間化オーディオシステムであって、
ユーザの頭部上に装着されるフレームと、
複数のスピーカであって、前記複数のスピーカは、前記フレームが前記ユーザによって装着されると、前記複数のスピーカのそれぞれが、前記ユーザの頭部から個別の非ゼロ距離に配置され、前記複数のスピーカのそれぞれが、前記ユーザの耳を含む、前記ユーザの頭部の任意の表面に接触しないように、前記フレームに取り付けられる、複数のスピーカと、
前記ユーザの頭部姿勢データを収集するための頭部姿勢センサと、
前記ユーザの頭部姿勢を前記頭部姿勢データから決定するための頭部姿勢プロセッサと、
前記決定された前記ユーザの頭部姿勢に基づいて、空間化オーディオデータを生成するための空間化オーディオプロセッサと
を備え、
前記スピーカは、前記生成された空間化オーディオデータに対応する音を生成する、システム。
(項目22)
前記複数のスピーカに結合される増幅器をさらに備える、項目21に記載のシステム。
(項目23)
前記生成された空間化オーディオデータは、複数の仮想オーディオソース毎に、位置、配向、および音量データを含む、項目21に記載のシステム。
(項目24)
前記複数のスピーカは、前記生成された音を前記ユーザの耳に集束させる、項目21に記載のシステム。
(項目25)
前記複数のスピーカはそれぞれ、変換器を備える、項目24に記載のシステム。
(項目26)
前記フレームは、前記生成された音を前記ユーザの耳に集束させる、項目21に記載のシステム。
(項目27)
AR/MRシステムであって、
仮想画像を生成するためのディスプレイシステムと、
項目21に記載の空間化オーディオシステムと
を備え、
前記仮想画像および前記生成された音は、同期される、システム。
(項目28)
前記生成された音は、仮想オブジェクトから発出するように現れる、項目27に記載のシステム。
(項目29)
前記生成された音は、実際の物理的オブジェクトから発出するように現れる、項目27に記載のシステム。
(項目30)
前記生成された音は、実際の物理的人物から発出するように現れる、項目27に記載のシステム。
(項目31)
前記生成された音は、前記実際の物理的人物の口から発出するように現れる、項目30に記載のシステム。
(項目32)
前記生成された音は、前記実際の物理的人物の実際の音声と異なる、項目31に記載のシステム。
(項目33)
前記生成された音は、前記ユーザの周囲の複数のソースから発出するように現れる、項目27に記載のシステム。
(項目34)
前記生成された音は、前記ユーザ内から発出するように現れる、項目27に記載のシステム。
(項目35)
前記頭部姿勢センサは、IMUである、項目21に記載のシステム。
(項目36)
前記頭部姿勢センサは、カメラである、項目21に記載のシステム。
(項目37)
前記複数のスピーカは、前記フレームに除去可能に取り付けられる、項目21に記載のシステム。
(項目38)
前記複数のスピーカは、個別の磁石を用いて、前記フレームに除去可能に取り付けられる、項目37に記載のシステム。
(項目39)
前記空間化オーディオプロセッサに動作可能に結合されるシネマオーディオプロセッサであって、前記シネマオーディオプロセッサは、シネマオーディオデータを生成する、シネマオーディオプロセッサと、
前記生成されたシネマオーディオデータに対応するシネマサウンドを生成するための複数のシネマスピーカと
をさらに備える、項目21に記載のシステム。
(項目40)
前記空間化オーディオプロセッサは、タイミング情報/メタデータを前記シネマオーディオプロセッサから受信し、前記音と前記シネマサウンドを同期させる、項目39に記載のシステム。
(項目41)
前記タイミング情報は、タイムコードを備える、項目40に記載のシステム。
(項目42)
前記タイミング情報は、キューを備える、項目40に記載のシステム。
(項目43)
無線ネットワークをさらに備え、前記シネマオーディオプロセッサは、前記無線ネットワークを経由して、前記タイミング情報を前記空間化オーディオプロセッサに伝送する、項目40に記載のシステム。
(項目44)
前記タイミング情報は、前記生成されたシネマサウンドに対応するビデオ内の光学キューを備える、項目40に記載のシステム。
(項目45)
前記タイミング情報は、前記生成されたシネマサウンドに対応するビデオから別個に投影される、光学キューを備える、項目40に記載のシステム。
(項目46)
前記タイミング情報は、赤外線光を用いて投影される光学キューを備える、項目40に記載のシステム。
(項目47)
前記シネマオーディオプロセッサは、シネマ情報を前記空間化オーディオプロセッサに伝送する、項目39に記載のシステム。
(項目48)
前記シネマ情報は、タイミング情報、仮想オブジェクト音情報、位置情報、配向情報、ハイパーリンク、または音響モデル化情報のうちの1つを備える、項目47に記載のシステム。
(項目49)
前記仮想オブジェクト音情報は、モノオーディオストリームを備える、項目48に記載のシステム。
(項目50)
前記空間化オーディオプロセッサは、第1の時間において、第1のタイミング情報を前記シネマオーディオプロセッサから受信し、前記第1の時間において、前記音と前記シネマサウンドを同期させ、
前記空間化オーディオプロセッサは、前記第1の時間より後の第2の時間において、第2のタイミング情報を前記シネマオーディオプロセッサから受信し、前記第2の時間において、前記音と前記シネマサウンドを同期させる、項目39に記載のシステム。
(項目51)
前記空間化オーディオプロセッサは、前記空間化オーディオデータを空間化オーディオソースデータから生成する、項目39に記載のシステム。
(項目52)
前記空間化オーディオソースデータは、前記空間化オーディオプロセッサ上に事前にロードされる、項目51に記載のシステム。
(項目53)
前記空間化オーディオソースデータは、前記空間化オーディオプロセッサにストリームされる、項目51に記載のシステム。
(項目54)
前記ストリームされた空間化オーディオソースデータは、前記空間化オーディオプロセッサにバッファ/キャッシュされる、項目53に記載のシステム。
(項目55)
前記空間化オーディオプロセッサは、前記空間化オーディオプロセッサ/前記複数のスピーカと前記シネマオーディオプロセッサ/前記複数のシネマスピーカとの間の待ち時間差を補償する、項目39に記載のシステム。
(項目56)
ユーザセンサをさらに備え、前記ユーザセンサは、前記シネマオーディオプロセッサへの伝送のためのユーザ情報を収集する、項目39に記載のシステム。
(項目57)
前記ユーザセンサは、前記フレームに取り付けられる、項目56に記載のシステム。
(項目58)
前記シネマオーディオプロセッサは、前記シネマサウンドが修正されたシネマオーディオデータに対応するように、前記ユーザ情報に基づいて、前記シネマオーディオデータを修正する、項目56に記載のシステム。
(項目59)
前記ユーザ情報は、前記ユーザからサンプリングされた音を含み、前記修正されたシネマオーディオデータは、サンプリングされた音を組み込む、項目58に記載のシステム。
(項目60)
前記複数のシネマスピーカは、低周波数音を生成するように構成されるサブウーファを含み、
前記ユーザ情報は、低周波数オーディオデータを含み、
前記シネマオーディオプロセッサは、前記低周波数オーディオデータに基づいて、前記シネマオーディオデータを修正し、
前記サブウーファは、前記修正されたシネマオーディオデータに対応する低周波数音を生成する、
項目58に記載のシステム。
(項目61)
前記サブウーファは、前記ユーザのための座席に隣接して配置される、項目60に記載のシステム。
(項目62)
前記サブウーファは、前記ユーザによって装着される、項目60に記載のシステム。
(項目63)
前記空間化オーディオプロセッサに動作可能に結合されるアプリケーションプロセッサをさらに備え、前記アプリケーションプロセッサは、前記空間化オーディオプロセッサが前記空間化オーディオデータを生成するソースデータを提供する、項目39に記載のシステム。
(項目64)
前記アプリケーションプロセッサは、前記シネマオーディオプロセッサに動作可能に結合される、項目63に記載のシステム。
(項目65)
前記アプリケーションプロセッサは、前記空間化オーディオデータと前記シネマオーディオデータを同期させる、項目63に記載のシステム。
(項目66)
前記シネマオーディオデータは、分岐構造内に編成され、
前記修正されたシネマオーディオデータは、前記シネマオーディオデータの分岐構造より小さい修正された分岐構造を有する、項目58に記載のシステム。
(項目67)
前記フレームに取り付けられ、前記シネマサウンドを記録する、マイクロホンと、
前記空間化オーディオプロセッサに動作可能に結合される同期モジュールであって、前記同期モジュールは、前記記録されたシネマサウンドを分析し、シネマサウンドトラックおよび前記シネマサウンドトラック内の時間を識別する、同期モジュールと
をさらに備え、
前記同期モジュールは、前記シネマサウンドトラックの識別および前記シネマサウンドトラック内の識別された時間に基づいて、タイミング情報を生成し、前記音と前記シネマサウンドを同期させる、項目39に記載のシステム。
(項目68)
前記マイクロホンは、前記シネマサウンドの再生の間、後の時間において前記シネマサウンドを記録し、
前記同期モジュールは、前記後の記録されたシネマサウンドを分析し、前記シネマサウンドトラック内の後の時間を識別し、前記音と前記シネマサウンドとの間の同期を維持する、
項目67に記載のシステム。
(項目69)
シネマサウンドトラックデータベースをさらに備え、前記同期モジュールは、前記記録されたシネマサウンドと前記シネマサウンドトラックデータベースを比較し、前記シネマサウンドトラックおよび前記シネマサウンドトラック内の時間を識別する、項目67に記載のシステム。
(項目70)
前記同期モジュールは、前記記録されたシネマサウンドからの第1の記録されたパケットと前記シネマサウンドトラックデータベースからの第1のデータベースパケットとの間の第1の合致を識別する、項目69に記載のシステム。
(項目71)
前記同期モジュールは、前記同期モジュールが前記第1の合致を識別した後、前記記録されたシネマサウンドからの第2の記録されたパケットと前記シネマサウンドトラックデータベースからの第2のデータベースパケットとの間の第2の合致を識別する、項目70に記載のシステム。
(項目72)
前記シネマサウンドトラックデータベースは、複数の音調クラスタを備える、項目69に記載のシステム。
(項目73)
前記シネマサウンドトラックデータベースは、音調クラスタ、前記シネマサウンドトラック内の個別の時間、および前記音調クラスタに続く音調クラスタのシーケンスに対応する識別子を備える、項目72に記載のシステム。
(項目74)
前記記録されたシネマサウンドと前記シネマサウンドトラックデータベースを比較する前記同期モジュールは、前記記録されたシネマサウンド内の音調クラスタと前記シネマサウンドトラックデータベース内の音調クラスタを合致させることを含む、項目72に記載のシステム。
(項目75)
前記複数の音調クラスタの各音調クラスタは、約1ms長である、項目72に記載のシステム。
(項目76)
シネマサウンドトラックデータベースビルダをさらに備え、前記シネマサウンドトラックデータベースビルダは、前記シネマサウンドトラックを走査し、その中の前記複数の音調クラスタを識別する、項目72に記載のシステム。
(項目77)
前記タイミング情報は、タイムコードを備える、項目67に記載のシステム。
(項目78)
空間化オーディオシステムであって、
複数のパーソナルオーディオデバイスであって、前記複数のうちの各パーソナルオーディオデバイスは、
ユーザの頭部上に装着されるフレームと、
複数のスピーカであって、前記複数のスピーカは、前記フレームが前記ユーザによって装着されると、前記複数のスピーカのそれぞれが、前記ユーザの頭部から個別の非ゼロ距離に配置され、前記複数のスピーカのそれぞれが、前記ユーザの耳を含む、前記ユーザの頭部に接触しないように、前記フレームに取り付けられる、複数のスピーカと、
前記ユーザの頭部姿勢データを収集するための頭部姿勢センサと、
前記ユーザの頭部姿勢を前記頭部姿勢データから決定するための頭部姿勢プロセッサと、
前記ユーザの決定された頭部姿勢および特性に基づいて、空間化オーディオデータを生成するための空間化オーディオプロセッサと
を備える、複数のパーソナルオーディオデバイスと、
前記空間化オーディオプロセッサに動作可能に結合されるシネマオーディオプロセッサであって、前記シネマオーディオプロセッサは、前記シネマオーディオデータを生成する、シネマオーディオプロセッサと、
前記生成されたシネマオーディオデータに対応するシネマサウンドを生成するための複数のシネマスピーカと
を備え、
前記複数のスピーカはそれぞれ、個別の生成された空間化オーディオデータに対応する音を生成する、システム。
(項目79)
前記第1のユーザの第1の特性が、前記第2のユーザの第2の特性と異なるので、前記複数のパーソナルオーディオデバイスの第1のパーソナルオーディオデバイスの第1のユーザのための第1の生成された空間化オーディオデータは、前記複数のパーソナルオーディオデバイスの第2のパーソナルオーディオデバイスの第2のユーザのための第2の生成された空間化オーディオデータと異なる、項目78に記載のシステム。
(項目80)
前記第1および第2の特性は、ゲームにおける異なるレベルである、項目79に記載のシステム。
(項目81)
前記第1および第2の特性は、異なる個人的選好である、項目79に記載のシステム。
(項目82)
前記第1および第2の特性は、ユーザ焦点の異なる場所である、項目79に記載のシステム。
(項目83)
前記第1および第2の特性は、映画館内の異なる場所である、項目79に記載のシステム。
(項目84)
前記第1および第2の特性は、注意の異なるインジケータである、項目79に記載のシステム。
(項目85)
前記第1および第2の特性は、それぞれ、前記第1および第2のユーザによって放出される異なる音である、項目79に記載のシステム。
(項目86)
部屋センサをさらに備え、前記部屋センサは、前記ユーザが配置される部屋の音響性質を測定し、前記空間化オーディオプロセッサは、前記ユーザの前記決定された頭部姿勢および前記部屋の測定された音響性質に基づいて、前記空間化オーディオデータを生成する、項目21に記載のシステム。
(項目87)
前記部屋センサは、マイクロホンであり、前記マイクロホンは、部屋音を収集し、前記部屋の音響性質を測定する、項目86に記載のシステム。
(項目88)
前記部屋センサは、カメラであり、前記カメラは、部屋画像を収集し、前記部屋の音響性質を測定する、項目86に記載のシステム。
(項目89)
パーソナライズされたメディアシステムであって、
一般的メディアシステムであって、
メディア製品に対応する一般的ビデオおよびオーディオデータを生成するための一般的メディアプロセッサと、
前記一般的ビデオデータに対応する一般的ライトフィールドを提示するための一般的メディアディスプレイと、
前記一般的シネマオーディオデータに対応する一般的音場を提示するための複数の一般的メディアスピーカと
を備える、一般的メディアシステムと、
複数のパーソナルメディアデバイスであって、前記複数のうちの各パーソナルメディアデバイスは、
前記ユーザの姿勢データを収集するための姿勢センサと、
前記ユーザの姿勢を前記姿勢データから決定するための姿勢プロセッサと、
前記ユーザの決定された姿勢および特性に基づいて、パーソナルビデオおよびオーディオデータを生成するためのパーソナルメディアプロセッサと、
ユーザの頭部上に装着されるフレームと、
前記フレームに取り付けられ、前記パーソナルビデオデータに対応する前記ユーザのためのパーソナル3次元ライトフィールドを提示するように構成されるパーソナルディスプレイと、
複数のパーソナルスピーカであって、前記複数のパーソナルスピーカは、前記フレームが前記ユーザによって装着されると、前記複数のパーソナルスピーカのそれぞれが、前記ユーザの頭部から個別の非ゼロ距離に配置され、前記複数のパーソナルスピーカのそれぞれが、前記ユーザの耳を含む、前記ユーザの頭部に接触しないように、前記フレームに取り付けられる、複数のパーソナルスピーカと
とを備え、前記複数のパーソナルスピーカは、パーソナルオーディオデータに対応する前記ユーザのための、パーソナル空間化音場を提示するように構成される、複数のパーソナルメディアデバイスと
を備え、
前記複数のパーソナルメディアデバイスはそれぞれ、前記個別のパーソナル3次元ライトフィールド、パーソナル空間化音場、前記一般的メディアライトフィールド、および前記一般的メディア音場が、前記ユーザのためのコヒーレントメディア体験を形成するように、前記一般的メディアシステムと同期される、システム。
(項目90)
前記メディア製品は、シネマ製品である、項目89に記載のシステム。
(項目91)
前記メディア製品は、ゲーム製品である、項目89に記載のシステム。
(項目92)
前記メディア製品は、複合メディア製品である、項目89に記載のシステム。
(項目93)
前記ユーザの特性は、前記ユーザの識別である、項目89に記載のシステム。
(項目94)
前記ユーザの特性は、前記ユーザの場所である、項目89に記載のシステム。
(項目95)
前記ユーザの特性は、前記メディアに関連するソフトウェアとの前記ユーザの相互作用に関連する、項目89に記載のシステム。
(項目96)
前記メディア製品は、シネマ製品であり、前記ソフトウェアは、ゲームである、項目95に記載のシステム。
(項目97)
前記ユーザの姿勢は、頭部姿勢である、項目89に記載のシステム。
(項目98)
前記パーソナルディスプレイは、AR/MRディスプレイである、項目89に記載のシステム。
(項目99)
前記一般的メディアプロセッサは、前記一般的ライトフィールドの一部が空にされるように、前記一般的ビデオデータを修正するように構成され、
前記一般的ライトフィールドの一部は、前記パーソナル3次元ライトフィールド内のオブジェクトの場所に対応する、項目89に記載のシステム。
(項目100)
前記パーソナルビデオデータは、別のユーザに対応する別のパーソナルビデオデータを含む、項目89に記載のシステム。
図面は、本発明の種々の実施形態の設計および可用性を図示する。図は、正確な縮尺で描かれておらず、類似構造または機能の要素は、図全体を通して同一参照番号によって表されることに留意されたい。本発明の種々の実施形態の前述および他の利点ならびに目的を得る方法をより深く理解するために、簡単に前述された発明を実施するための形態が、付随の図面に図示されるその具体的実施形態を参照することによって与えられるであろう。これらの図面は、本発明の典型的実施形態のみを描写し、その範囲の限定として見なされないことを理解した上で、本発明は、付随の図面の使用を通して付加的具体性および詳細とともに記載ならびに説明されるであろう。
図1は、一実施形態による、ウェアラブルAR/MRユーザデバイスを通した拡張現実または複合現実(ARまたはMR)のユーザのビューを描写する。 図2は、ユーザ/聴取者の頭部上に装着される、一実施形態による、空間化オーディオシステムの上面概略図である。 図3は、図2に描写されるようにユーザ/聴取者の頭部上に装着される、空間化オーディオシステムの背面概略図である。 図4は、図2に描写されるようにユーザ/聴取者の頭部上に装着される、空間化オーディオシステムのより詳細な上面概略図である。 図5−8は、種々の実施形態による、ユーザ/聴取者の頭部上に装着される、空間化オーディオシステムの部分的斜視および部分的概略図である。 図5−8は、種々の実施形態による、ユーザ/聴取者の頭部上に装着される、空間化オーディオシステムの部分的斜視および部分的概略図である。 図5−8は、種々の実施形態による、ユーザ/聴取者の頭部上に装着される、空間化オーディオシステムの部分的斜視および部分的概略図である。 図5−8は、種々の実施形態による、ユーザ/聴取者の頭部上に装着される、空間化オーディオシステムの部分的斜視および部分的概略図である。 図9は、一実施形態による、空間化オーディオシステムの詳細な概略図である。 図10は、実際の物理的オーディオソースによって生成された空間化音場の概略図である。 図11は、別の実施形態による、空間化オーディオシステムの詳細な概略図である。 図12は、一実施形態による、種々の仮想音源および仮想オブジェクトを含む、空間化シネマオーディオ体験の背面概略図である。 図13は、図12に描写される空間化シネマオーディオ体験の側面概略図である。 図14は、先行技術シネマオーディオシステムの上面図である。 図15は、先行技術シネマオーディオシステムの概略図である。 図16および17は、一実施形態による、個人化されたシネマオーディオシステムの上面図であって、図16では、ユーザは、正面に面する一方、図17では、ユーザは、左に面する。 図16および17は、一実施形態による、個人化されたシネマオーディオシステムの上面図であって、図16では、ユーザは、正面に面する一方、図17では、ユーザは、左に面する。 図18−20は、種々の実施形態による、個人化されたシネマオーディオシステムの詳細な概略図である。 図18−20は、種々の実施形態による、個人化されたシネマオーディオシステムの詳細な概略図である。 図18−20は、種々の実施形態による、個人化されたシネマオーディオシステムの詳細な概略図である。 図21は、一実施形態による、パーソナライズされた空間化オーディオシステムを利用して空間化オーディオを提示する方法を描写する、フローチャートである。 図22および23は、2つの実施形態による、個人化されたシネマオーディオのコンポーネントを同期させ、個人化されたシネマオーディオシステムを利用して個人化されたシネマオーディオを提示する方法を描写する、フローチャートである。 図22および23は、2つの実施形態による、個人化されたシネマオーディオのコンポーネントを同期させ、個人化されたシネマオーディオシステムを利用して個人化されたシネマオーディオを提示する方法を描写する、フローチャートである。 図24は、一実施形態による、個人化されたシネマオーディオシステムを利用して修正されたシネマオーディオを提示する方法を描写する、フローチャートである。 図25は、一実施形態による、個人化されたシネマオーディオシステムを利用してパーソナルオーディオを選択的に提示する方法を描写する、フローチャートである。
本発明の種々の実施形態は、単一実施形態または複数の実施形態における空間化オーディオシステムの実装のためのシステム、方法、および製造品を対象とする。本発明の他の目的、特徴、および利点は、発明を実施するための形態、図、および請求項に説明される。
ここで、種々の実施形態が、当業者が本発明を実践することを可能にするように、本発明の例証的実施例として提供される、図面を参照して詳細に説明されるであろう。留意すべきこととして、以下の図および実施例は、本発明の範囲を限定することを意味するものではない。本発明のある要素が、既知の構成要素(または方法もしくはプロセス)を使用して部分的または完全に実装され得る場合、本発明の理解のために必要なそのような既知の構成要素(または方法もしくはプロセス)のそれらの一部のみが、説明され、そのような既知の構成要素(または方法もしくはプロセス)の他の部分の詳細な説明は、本発明を曖昧にしないように、省略されるであろう。さらに、種々の実施形態は、例証として本明細書に参照される構成要素の現在および将来的既知の均等物を包含する。
空間化オーディオシステムは、VR/AR/MRシステムから独立して実装されてもよいが、以下の多くの実施形態は、例証的目的のためだけに、AR/MRシステムに関連して説明される。
(問題およびソリューションの概要)
2−D/3−Dシネマシステム、2−D/3−Dビデオゲーム、およびVR/AR/MRシステムの一部との併用またはそれを形成するためのもの等の空間化オーディオシステムは、実際の物理的3−D空間内の仮想場所とともに、仮想オブジェクトに対応する空間化オーディオをレンダリング、提示、および放出する。本願で使用されるように、オーディオの「放出」または「提示」は、限定ではないが、ヒトの聴覚系によって音(亜音速低周波数音波を含む)と知覚され得る、音波の形成を生じさせることを含む。これらの仮想場所は、典型的には、座標系(例えば、原点における空間化オーディオシステムと空間化オーディオシステムに対する既知の配向とを伴う、座標系)を使用して、空間化オーディオシステムに「把握」される(すなわち、その中に記録される)。仮想オブジェクトと関連付けられた仮想オーディオソースは、コンテンツ、位置、および配向を有する。仮想オーディオソースの別の特性は、聴取者からの距離の2乗として減少する、音量である。しかしながら、現在の空間化オーディオシステム(例えば、5.1空間化オーディオシステム、7.1空間化オーディオシステム、シネマオーディオシステム、および頭部装着型オーディオシステム)は全て、空間化オーディオシステムが現実的空間化オーディオを生成し得る、聴取者の数および特性を限定する、聴取者位置および配向制限を有する。加えて、現在の頭部装着型オーディオシステムは、頭部装着型オーディオシステムの音響結像能力をさらに妨げる、心理音響効果を装着者に生じさせる。
本明細書に説明される空間化オーディオシステムは、種々の仮想オブジェクトと関連付けられたオーディオが個別の仮想オブジェクトに対応する仮想位置から生じるように現れるように、聴取者の位置を追跡し、空間化オーディオをより正確にレンダリングする。さらに、本明細書に説明される空間化オーディオシステムは、種々の仮想オブジェクトと関連付けられた指向性オーディオが個別の仮想オブジェクトのために適切な仮想方向に(例えば、仮想キャラクタの頭部の背後からではなく、仮想キャラクタの口から)伝搬するように現れるように、聴取者の頭部姿勢を追跡し、空間化オーディオをより正確にレンダリングする。さらに、本明細書に説明される空間化オーディオシステムは、種々の仮想オブジェクトと関連付けられたオーディオが実際の物理的および仮想オブジェクトから適切に反射するように現れるように、他の実際の物理的および仮想オブジェクトを空間化オーディオのそのレンダリングに含む。加えて、空間化オーディオシステムは、スピーカが、聴取者の耳から個別の非ゼロ距離(例えば、約1cm範囲内)に配置され、音響結像に悪影響を及ぼす心理音響効果を防止するように、聴取者によって装着されるフレームに取り付けられるスピーカを含む。ある実施形態では、スピーカは、ユーザの耳から3mm〜3cmの距離に配置される。
従来の映画産業は、2−Dまたは3−Dであるかどうかにかかわらず、改良されたホーム空間化オーディオシステムを含む、かつてないほど改良されたホームシアターシステムに対して、その観客を失いつつある。本明細書に説明される空間化オーディオシステムおよび拡張現実システムを利用することによって、従来の映画産業は、同期された空間化オーディオ結像およびAR/MRを用いて拡張され、シネマ体験を向上させ、かつコンテンツを個人化/カスタマイズし、シネマ体験をパーソナライズすることができる。個人化されたシネマは、ユーザに対応する利用可能なデータを組み込み、シネマ、ゲーム、および複合メディアシステムのエンターテインメント価値を増加させる、新しい体験をもたらす。
(空間化オーディオシステム)
AR/MRシナリオは、多くの場合、実世界オブジェクトに関連して、仮想オブジェクトに対応する画像および音の提示を含む。例えば、図1を参照すると、拡張現実場面100が、描写され、AR/MR技術のユーザには、人物、木、背景の建物、および実世界の物理的コンクリートプラットフォーム104を特徴とする、実世界の物理的公園状設定102が見える。これらのアイテムに加えて、AR/MR技術のユーザはまた、実世界の物理的プラットフォーム104上に立っている仮想ロボット像106およびマルハナバチの擬人化されたように見える、飛んでいる仮想漫画のようなアバタキャラクタ108とが「見える」と知覚するが、これらの仮想オブジェクト106、108は、実世界には存在しない。
真実味がある、または通用する、AR/MR場面100を提示するために、仮想オブジェクト(例えば、ロボット像106およびマルハナバチ108)は、それぞれ、それと関連付けられた同期される空間化オーディオを有してもよい。例えば、ロボット像106と関連付けられた機械的音が、それらがロボット像106に対応する仮想場所から発出するように現れるように生成されてもよい。同様に、マルハナバチ108と関連付けられたブンブン飛ぶ音が、それらがマルハナバチ108に対応する仮想場所から発出するように現れるように生成されてもよい。
空間化オーディオは、位置に加え、配向を有してもよい。例えば、マルハナバチ108と関連付けられた「漫画状」音声が、マルハナバチ108の口110から発出するように現れてもよい。マルハナバチ108が、図1に描写されるシナリオにおいて、視認者/聴取者に面している間、マルハナバチ108は、視認者/聴取者が仮想マルハナバチ108の背後に移動したもの等の別のシナリオでは、視認者/聴取者から離れるように面してもよい。その場合、マルハナバチ108の音声は、そのシナリオにおける他のオブジェクト(例えば、ロボット像106)から反射された音としてレンダリングされるであろう。
いくつかの実施形態では、仮想音は、実際の物理的オブジェクトから発出するように現れるように生成されてもよい。例えば、仮想鳥音が、AR/MR場面100内の実際の木から生じるように現れるように生成されてもよい。同様に、仮想発話が、AR/MR場面100内の実際の人々から生じるように現れるように生成されてもよい。AR/MR会議では、仮想発話が、実際の人物の口から発出するように現れるように生成されてもよい。仮想発話は、実際の人物の音声のような音または完全に異なる音声であってもよい。一実施形態では、仮想発話は、聴取者の周囲の複数の音源から同時に発出するように現れてもよい。別の実施形態では、仮想発話は、聴取者の身体内から発出するように現れてもよい。
同様に、VRシナリオもまた、心理音響効果を最小限にしながら、より正確かつあまり邪魔にならない、空間化オーディオ生成および送達から利点を享受し得る。AR/MRシナリオのように、VRシナリオもまた、空間化オーディオの1つ以上の移動する視認者/聴取者ユニットレンダリングを考慮しなければならない。位置、配向、および音量の観点からの空間化オーディオの正確なレンダリングは、VRシナリオの没入感を改良することができる、または少なくともVRシナリオから注意散漫させない。
図2は、聴取者の頭部200の上方からの上方視において、聴取者の頭部200上に装着される、空間化オーディオシステム202を図式的に描写する。図2に示されるように、空間化オーディオシステム202は、フレーム204と、フレーム204に取り付けられる、4つの空間化オーディオシステムスピーカ206−1、206−2、206−3、206−4とを含む。空間化オーディオシステムスピーカ206−1は、空間化オーディオシステム202が聴取者の頭部200上に装着されると、スピーカ206−1が、聴取者の頭部200の正面Fおよび左Lに来るようにフレーム204に取り付けられる。空間化オーディオシステムスピーカ206−2は、空間化オーディオシステム202が聴取者の頭部200上に装着されると、スピーカ206−2が聴取者の頭部200の正面Fおよび右Rに来るようにフレーム204に取り付けられる。空間化オーディオシステムスピーカ206−3は、空間化オーディオシステム202が聴取者の頭部200上に装着されると、スピーカ206−3が聴取者の頭部200の背後Bおよび左Lに来るようにフレーム204に取り付けられる。空間化オーディオシステムスピーカ206−4は、空間化オーディオシステム202が聴取者の頭部200上に装着されると、スピーカ206−4が聴取者の頭部200の背後Bおよび右Rに来るようにフレーム204に取り付けられる。空間化オーディオシステムスピーカ206−1、206−2、206−3、206−4は全て、聴取者の頭部200に向かって向けられる。図2に描写される空間化オーディオシステムスピーカ設置は、空間化オーディオの生成を促進する。
本願で使用されるように、「スピーカ」は、限定ではないが、典型的ヒトの聴覚範囲外の音を含む、音を生成する、任意のデバイスを含む。音は、基本的に、空気の分子の移動であるため、多くの異なるタイプのスピーカが、音を生成するために使用されることができる。図2に描写される空間化オーディオシステムスピーカ206−1、206−2、206−3、206−4のうちの1つ以上のものは、表面を振動させ、音を生成する、従来のダイナミックスピーカまたは振動変換器であることができる。振動変換器を含む、実施形態では、変換器は、限定ではないが、フレーム204および聴取者の頭蓋骨を含む、任意の表面を振動させ、音を生成し得る。空間化オーディオシステムスピーカ206−1、206−2、206−3、206−4は、スピーカ206−1、206−2、206−3、206−4が交換および/またはアップグレードされ得るように、フレーム204に除去可能に取り付けられてもよい(例えば、磁気的に)。
図3は、聴取者の頭部200の背後の後方視からの図2に描写される空間化オーディオシステム202を図式的に描写する。図3に示されるように、空間化オーディオシステム202のフレーム204は、空間化オーディオシステム202が聴取者の頭部200上に装着されると、フレーム204の正面が聴取者の頭部200の上方Aに来て、フレーム204の背面が聴取者の頭部200の下方Uに来るように構成されてもよい。空間化オーディオシステム202の4つの空間化オーディオシステムスピーカ206−1、206−2、206−3、206−4は、フレーム204に取り付けられるため、空間化オーディオシステム202が聴取者の頭部200上に装着されると、スピーカ206−1、206−2もまた、聴取者の頭部200の上方Aに配置され、206−3、206−4も、下方Uに配置される。図3に描写される空間化オーディオシステムスピーカ設置は、空間化オーディオ、特に、聴取者の頭部200の上方Aおよび下方Uの平面に位置する仮想オーディオソースを含む、空間化オーディオの生成を促進する。
空間化オーディオシステムスピーカ206−1、206−2、206−3、206−4は、聴取者の頭部200に向かって向けられると述べられたが、図4に示されるように、聴取者の耳208−L、208−Rに向かって向けられるようにスピーカ206−1、206−2、206−3、206−4を説明することがより正確である。図4は、図2に描写されるものに類似する、上面図である。空間化オーディオシステムスピーカ206−1、206−3は、聴取者の左耳208−Lに向かって向けられる。空間化オーディオシステムスピーカ206−2、206−4は、聴取者の右耳208−Rに向かって向けられる。空間化オーディオシステムスピーカ206−1、206−2、206−3、206−4を聴取者の耳208−L、208−Rに向かって向けることは、空間化オーディオを聴取者のためにレンダリングするために必要とされる音量を最小限にする。これは、ひいては、空間化オーディオシステム202から漏出する(すなわち、意図されない聴取者に向かって指向される)音の量を低減させる。フレーム204はまた、空間化オーディオを聴取者の耳208−L、208−Rに向かって集束させるように構成されてもよい。例えば、フレーム204は、音響導波管を含み、または形成し、空間化オーディオを指向してもよい。
図4はまた、空間化オーディオシステムスピーカ206−1、206−2、206−3、206−4が、空間化オーディオシステム202が聴取者の頭部200上に装着されると、スピーカ206−1、206−2、206−3、206−4が聴取者の頭部200から個別の非ゼロ距離210−1、210−2、210−3、210−4に位置するようにフレーム204に取り付けられることを図示する。本願で使用されるように、「非ゼロ距離」は、限定ではないが、2つの表面間の顕著な接触を防止する、任意の距離を含む。例えば、聴取者/ユーザの頭部200から「非ゼロ距離」に位置するスピーカ206は、スピーカと聴取者/ユーザの頭部200との間の最短距離が、スピーカ206と聴取者/ユーザの頭部200との間に接触が存在しないようなものであることを意味する。聴取者/ユーザの頭部200は、聴取者の耳208−L、208−R(距離210−3、210−4参照)を含む。
図2−4におけるシステム202は、4つの空間化オーディオシステムスピーカ206−1、206−2、206−3、206−4を含むが、他の空間化オーディオシステムは、より少ないまたはより多い空間化オーディオシステムスピーカを含んでもよい。
ここで図5−8を参照すると、いくつかの例示的空間化オーディオシステムコンポーネントオプションが、図示される。図5に示されるように、複数の空間化オーディオシステムスピーカ206に結合されるフレーム204を含む、頭部搭載型空間化オーディオシステム202が、聴取者によって、聴取者の頭部200上に装着される。以下は、例示的空間化オーディオシステム202の可能性として考えられるコンポーネントを説明する。説明されるコンポーネントの全てが、空間化オーディオシステム202を実装するために必要なわけではない。
描写される空間化オーディオシステム202では、2つの空間化オーディオシステムスピーカ206が、スピーカ206が聴取者の頭部200の任意の表面に接触しないように、聴取者の頭部200から個別の非ゼロ距離に位置付けられる。図5−8では図示されないが、別の対の空間化オーディオシステムスピーカ206は、聴取者の頭部206の他側上の聴取者の頭部200から個別の非ゼロ距離に位置付けられ、空間化音を提供する。したがって、本空間化オーディオシステム202は、図2−4に描写されるシステムのように、合計4つの空間化オーディオシステムスピーカ206を含む。図5、7、および8に描写される空間化オーディオシステム202内の空間化オーディオシステムスピーカ206は、個別のフレーム204に取り付けられるが、空間化オーディオシステム202のスピーカ206の一部または全部は、図6に描写される実施形態に示されるように、ヘルメットまたは帽子212に取り付けられる、もしくはその中に内蔵されてもよい。
空間化オーディオシステム202の空間化オーディオシステムスピーカ206は、有線導線および/または無線コネクティビティ214等によって、ローカル処理およびデータモジュール216に動作可能に結合され、これは、フレーム204に固定して取り付けられる、図6に描写される実施形態に示されるように、ヘルメットまたは帽子212に固定して取り付けられる/その中に内蔵される、図7の実施形態に示されるように、リュック式構成において聴取者の胴体218に除去可能に取り付けられる、または図8の実施形態に示されるように、ベルト結合式構成において聴取者の腰部220に除去可能に取り付けられる等、種々の構成において搭載されてもよい。
ローカル処理およびデータモジュール216は、1つ以上の電力効率的プロセッサまたはコントローラと、フラッシュメモリ等のデジタルメモリとを備えてもよく、両方とも、データの処理、キャッシュ、および記憶を補助するために利用されてもよい。データは、画像捕捉デバイス(可視および赤外線光カメラ等)、慣性測定ユニット(加速度計およびジャイロスコープを含む、「IMU」)、コンパス、マイクロホン、GPSユニット、および/または無線デバイス等、フレーム204に動作可能に結合され得るセンサから捕捉されてもよい。代替として、または加えて、データは、遠隔処理モジュール222および/または遠隔データリポジトリ224を使用して入手および/または処理され、可能性として、そのような処理または読出後、スピーカ206による音の生成を促進/指向してもよい。ローカル処理およびデータモジュール216は、これらの遠隔モジュール222、224が、相互に動作可能に結合され、ローカル処理およびデータモジュール216へのリソースとして利用可能であるように、有線または無線通信リンク226、228等を介して、遠隔処理モジュール222および遠隔データリポジトリ224に動作可能に結合されてもよい。
一実施形態では、遠隔処理モジュール222は、オーディオデータおよび/または情報を分析および処理するように構成される、1つ以上の比較的に強力なプロセッサまたはコントローラを備えてもよい。一実施形態では、遠隔データリポジトリ224は、比較的に大規模のデジタルデータ記憶設備を備えてもよく、これは、インターネットまたは「クラウド」リソース構成における他のネットワーキング構成を通して利用可能なであってもよい。一実施形態では、全てのデータは、記憶され、全ての算出は、ローカル処理およびデータモジュール216において実施され、任意の遠隔モジュールからの完全に自律的な使用を可能にする。
1つ以上の実施形態では、空間化オーディオシステムは、典型的には、特定の聴取者の頭部のために適合され、空間化オーディオシステムスピーカは、聴取者の耳に整合される。これらの構成ステップは、聴取者が、頭痛、吐き気、不快感等の任意の生理学的副作用を生じさせずに、最適空間化オーディオ体験を提供されることを確実にするために使用されてもよい。したがって、1つ以上の実施形態では、聴取者装着型空間化オーディオシステムは、個々の聴取者毎に構成され(物理的およびデジタル的の両方において)、プログラムのセットが、聴取者のために具体的に較正されてもよい。例えば、いくつかの実施形態では、聴取者装着型空間化オーディオシステムは、頭部装着型空間化オーディオシステムの空間化オーディオシステムスピーカと聴取者の耳との間の個別の距離と、聴取者の頭部の3−Dマッピングとを検出する、または提供されてもよい。これらの測定は全て、所与の聴取者に適合するようにカスタマイズされた頭部装着型空間化オーディオシステムを提供するために使用されてもよい。他の実施形態では、そのような測定は、空間化オーディオ機能を実施するために必要ではない場合がある。例えば、緩く適合された空間化オーディオシステムは、種々の聴取者によって快適に使用され得るが、可能性として、仮想オーディオソースのあまり正確ではない空間化を伴う。
空間化オーディオシステムを実装するために必要とされないが、ディスプレイ230が、図5−8に示されるように、フレーム204に結合されてもよい(例えば、空間オーディオ体験に加え、光学AR/MR体験のために)。例示的AR/MRディスプレイは、米国特許出願第14/738,877号(代理人管理番号第ML.20019.00号)および第14/555,585号(代理人管理番号第ML.20011.00号)(その内容は、参照することによって前述で本明細書に組み込まれている)に説明される。ディスプレイ230を含む、実施形態では、ローカル処理およびデータモジュール216と、遠隔処理モジュール222と、遠隔データリポジトリ224とは、空間オーディオデータに加え、3−Dビデオデータを処理してもよい。
図9は、有線導線および/または無線コネクティビティ214を介してローカル処理およびデータモジュール216に動作可能に結合される、複数の空間化オーディオシステムスピーカ206−1、206−2を含む、一実施形態による、空間化オーディオシステム202を描写する。空間化オーディオシステム202はまた、有線導線および/または無線コネクティビティ214を介してローカル処理およびデータモジュール216に動作可能に結合される、頭部姿勢センサ232を含む。頭部姿勢センサ232は、聴取者/ユーザの頭部姿勢データを収集するように構成される。頭部姿勢センサ232は、画像捕捉デバイス(可視および赤外線光カメラ等)、慣性測定ユニット(加速度計およびジャイロスコープを含む)、コンパス、マイクロホン、GPSユニット、または無線デバイスのうちの1つ以上のものを含んでもよい。図9に描写される空間化オーディオシステム202は、2つのみの空間化オーディオシステムスピーカ206−1、206−2を含むが、他の実施形態による、空間化オーディオシステムは、より多くのスピーカを含んでもよい。
空間化オーディオシステム202はさらに、頭部姿勢プロセッサ234を含み、少なくとも、頭部姿勢センサ232によって収集される頭部姿勢データに基づいて、空間化オーディオシステム202を装着する聴取者/ユーザの頭部姿勢を決定する。本願で使用されるように、「頭部姿勢プロセッサ」は、限定ではないが、コンピュータが頭部姿勢を決定し得る前に、汎用コンピュータに追加されなければならない、コンピュータの1つ以上の別個および独立したソフトウェアおよび/またはハードウェアコンポーネント、ならびにそこに追加されるそのようなコンポーネントを有するコンピュータを含む。
空間化オーディオシステム202はさらに、空間化オーディオプロセッサ236を含み、少なくとも、頭部姿勢プロセッサ234によって決定された頭部姿勢に基づいて、空間化オーディオシステム202を装着する聴取者/ユーザに送達されるべき空間化オーディオのための空間化オーディオデータを生成する。生成された空間化オーディオデータは、空間化音場内の仮想オーディオソース毎に、コンテンツ、位置、配向、および音量データを含んでもよい。本願で使用されるように、「オーディオプロセッサ」は、限定ではないが、コンピュータが空間化オーディオデータを生成し得る前に、汎用コンピュータに追加されなければならない、コンピュータの1つ以上の別個および独立したソフトウェアおよび/またはハードウェアコンポーネント、ならびにそこに追加されるそのようなコンポーネントを有するコンピュータを含む。空間化オーディオプロセッサ234はまた、空間化オーディオデータに基づいて、複数の空間化オーディオシステムスピーカ206−1、206−2のためのオーディオ信号を生成し、空間化オーディオを聴取者/ユーザに送達してもよい。
図10は、実際の物理的オーディオソース302によって生成されるような空間化音場300を描写する。実際の物理的音源302は、場所および配向を有する。実際の物理的音源302は、多くの部分を有する、音波を生成する。聴取者の頭部200に対する実際の物理的音源302の場所および配向に起因して、音波の第1の部分306は、聴取者の左耳208−Lに指向される。音波の第2の部分306’は、聴取者の頭部200から離れ、空間化音場300内のオブジェクト304に向かって指向される。音波の第2の部分306’は、オブジェクト304から反射し、反射された第3の部分306’’を生成し、これは、聴取者の右耳208−Rに指向される。音波の第1の部分306ならびに第2および第3の部分306’、306’’によって進行される異なる距離のため、これらの部分は、若干異なる時間において、聴取者の左および右耳208−L、208−Rに到着するであろう。さらに、オブジェクト304は、聴取者の右耳208−Rに到達する前に、音波の反射された第3の部分306’’の音を変調させ得る。
図10に描写される空間化音場300は、1つのみの実際の物理的音源302と、1つのオブジェクト304とを含む、非常に単純なものである。本単純空間化音場300を再現する空間化オーディオシステム202さえ、音波の種々の反射および変調を考慮しなければならない。その中の音波と相互作用する、1つを上回る音源および/または1つを上回るオブジェクトを伴う空間化音場は、指数関数的により複雑になる。空間化オーディオシステム202は、これらのますます複雑な空間化音場を再現するために、ますます強力でなければならない。図9に描写される空間化オーディオプロセッサ236は、ローカル処理およびデータモジュール216の一部であるが、より強力な空間化オーディオプロセッサ236は、他の実施形態では、ローカル処理およびデータモジュール216における空間および電力を節約するために、遠隔処理モジュール222の一部であってもよい。
図11は、別の実施形態による、空間化オーディオシステム202を描写する。図10に描写されるシステム202は、図9に描写されるシステム202に類似する。差異は、図10に描写される空間化オーディオシステムが、有線導線および/または無線コネクティビティ214を介してローカル処理およびデータモジュール216に動作可能に結合される、増幅器238を含むことである。別の差異は、複数の空間化オーディオシステムスピーカ206−1、206−2が、ローカル処理およびデータモジュール216の代わりに、有線導線および/または無線コネクティビティ214を介して増幅器238に動作可能に接続されることである。増幅器238は、ローカル処理およびデータモジュール216からの空間化オーディオデータに基づいて、複数の空間化オーディオシステムスピーカ206−1、206−2のためのオーディオ信号を生成し、空間化オーディオを空間化オーディオシステム202を装着する聴取者/ユーザに送達する。増幅器238は、増幅器238が、オーディオ信号を生成するとき、空間化オーディオシステムスピーカ206−1、206−2を監視し、オーディオ歪曲を最小限にし、オーディオ再現の正確度を改良するように、複数の空間化オーディオシステムスピーカ206−1、206−2に緊密に結合される。
(個人化された空間化シネマオーディオおよびビデオ体験)
図12は、聴取者/視認者/ユーザの頭部200の背後の正面に面した斜方視から、一実施形態による、空間化シネマオーディオおよびビデオ体験400を描写する。空間化シネマオーディオおよびビデオ体験400では、聴取者/視認者/ユーザは、シネマ体験のための部屋(例えば、映画館またはホームシネマルーム)内に位置付けられる。空間化シネマオーディオおよびビデオ体験400は、第1および第2の仮想オーディオソース402−1、402−2を含む。これらの仮想オーディオソース402−1、402−2は、シネマプロジェクタおよびAR/MRディスプレイ230を使用してユーザに提示される、視覚的情報に対応する。例えば、第1の仮想オーディオソース402−1は、映画場面内のキャラクタに対応してもよく、第2の仮想オーディオソース402−2は、関連AR/MR場面内のホーンに対応してもよい。映画場面内のキャラクタは、シネマディスプレイ/画面408上においてユーザに表示されてもよく、ホーンは、空間化オーディオ/AR/MRシステム202のフレーム204に結合されるディスプレイ230(図12には図示せず、図5−8参照)上においてユーザに表示されてもよい。代替として、映画場面内のキャラクタは、立体写真、偏光、またはシャッタベース等の従来のシネマ3−D技術を使用して、ユーザに表示されてもよい。
図12はまた、第1の仮想オーディオソース402−1(すなわち、仮想キャラクタ)に対応する音波の部分406を描写し、これは、聴取者の左耳208−Lに指向される。図12はさらに、第2の仮想オーディオソース402−2(すなわち、ホーン)に対応する音波の第1の部分406’を描写し、これは、仮想オブジェクト404に指向される。第1の部分406’は、仮想オブジェクト404から反射し、第2の部分406’’を形成し、これは、聴取者の右耳208−Rに指向される。
図13は、側方視から、図12に描写される空間化シネマオーディオおよびビデオ体験400実施形態を描写する。図13は、第1の仮想オーディオソース402−1(すなわち、仮想キャラクタ)が、聴取者の左耳208−Lの若干下方にあって、かつシネマディスプレイ/画面408の背後にあることを示す。図13はまた、第2の仮想オーディオソース402−2(すなわち、ホーン)が、聴取者の右耳208−Rの若干上方にあって、仮想オブジェクト404が、ある高さを聴取者の右耳208−Rと第2の仮想オーディオソース402−2との間に有することを示す。
第2の仮想オーディオソース402−2(すなわち、ホーン)は、AR/MRディスプレイ204を使用して表示される。AR/MRディスプレイ204は、第2の仮想オーディオソース402−2の仮想場所が視認者の姿勢の位置から独立して世界内に設定されるように、第2の仮想オーディオソース402−2(および任意の他の仮想オブジェクト)を「世界中心」ビュー内に表示するように構成されることができる。故に、視認者が、その頭部を第2の仮想オーディオソース402−2から離れるように旋回させる場合、もはや仮想オブジェクトが見えないであろう。他の可能性は、限定ではないが、仮想オブジェクトの仮想場所が視認者の身体に対して設定される「身体中心」と、仮想オブジェクトの仮想場所が視認者の頭部に対して設定される「頭部中心」(例えば、ヘッドアップディスプレイ)とを含む。
第1および第2の仮想オーディオソース402−1、402−2は、実際の物理的場所を有していないが、その仮想場所は、第1および第2の仮想オーディオソース402−1、402−2に対応する個別の空間化オーディオをレンダリングする際に重要である。図12および13に描写される空間化シネマオーディオおよびビデオ体験400は、2つのみの仮想オーディオソース402−1、402−2を含むが、他の空間化シネマオーディオ体験は、より多いまたはより少ない仮想オーディオソースを含んでもよい。例えば、典型的映画場面は、背景音楽、背景雑音、物理的アクションと関連付けられた音、および対話等の多くの仮想オーディオソースを含んでもよい。これらの多くの仮想オーディオソースを正確に再現することは、空間化シネマオーディオ体験の聴取者の享受を増加させる。
空間化シネマオーディオおよびビデオ体験400は、体験400を生成および送達するために使用される、本明細書におけるAR/MRおよび空間化オーディオシステムの実施形態を参照して説明された。異なるレベルの正確度および精度ではあるが、空間化シネマオーディオおよびビデオ体験400を送達するように構成され得る、他のビデオおよびオーディオシステムが、ここで説明されるであろう。
(空間化シネマオーディオシステム)
図14は、上方視から、空間化シネマオーディオ体験を生成するために使用され得る、従来の空間化シネマオーディオシステム502を描写する。空間化シネマオーディオシステム502は、シネマ体験のための部屋(例えば、映画館またはホームシネマルーム)の周囲に配置される、複数のシネマスピーカ506−1、506−2、506−3、506−4を含む。シネマスピーカ506−1、506−2、506−3、506−4は、各シネマスピーカ506が具体的周波数(例えば、ツイータ、ミッドレンジスピーカ、およびサブウーファ)において音を生産するように最適化され得るように、種々のサイズの従来のダイナミックスピーカであることができる。
図14に描写される空間化シネマオーディオシステム502は、4つのシネマスピーカ506−1、506−2、506−3、506−4を含むが、他の空間化シネマオーディオシステムは、より少ないまたはより多いシネマスピーカを有してもよい。例えば、大型映画館内の空間化シネマオーディオシステムは、多くのさらなるシネマスピーカを有するであろう。図14は、聴取者の頭部200の周囲に比較的に均一に分散されるように、シネマスピーカ506−1、506−2、506−3、506−4を描写するが、これは、聴取者が空間化シネマオーディオシステム502によって生成されたオーディオ場の中心に位置付けられる場合のみに該当する。特に、大型映画館では、聴取者は、オーディオ場の中心から有意な距離を空けて位置付けられ得る。そのような中心から外れた聴取者は、オーディオ場の中心から離れた距離に比例する歪曲量を伴って、歪曲されたオーディオ体験を知覚するであろう。
加えて、従来の空間化シネマオーディオシステムは、そのシネマ体験をAR/MRデバイスを用いて拡張し得る、ユーザ/聴取者の頭部姿勢を考慮しない。故に、従来の空間化シネマオーディオシステムは、異なる拡張シネマ体験を有し得る複数のユーザ/聴取者に対して、オーディオを同時に生成/提示することが不可能であり得る。
図15は、別の従来の空間化シネマオーディオシステム502を図式的に描写する。空間化シネマオーディオシステム502は、複数のシネマスピーカ506−1、506−2と、シネマオーディオプロセッサ536とを含む。シネマオーディオプロセッサ536は、光ファイバ、有線導線、および/または無線コネクティビティ214によって、シネマスピーカ506−1、506−2に通信可能に結合される。シネマオーディオプロセッサ536は、シネマオーディオソースデータを受信し、シネマオーディオデータを受信されたソースデータから生成する。シネマオーディオプロセッサ536は、インターネット等のネットワークを経由して、映画スタジオまたはメディアコンテンツ送達業者のいずれかによって維持されるデータベースから、シネマオーディオソースデータを受信してもよい。シネマオーディオプロセッサ536は、映画が再生される前に、または映画が再生されている間、リアルタイムで、シネマオーディオソースデータを受信してもよい。図15に描写される空間化シネマオーディオシステム502は、2つのシネマスピーカ506−1、506−2を含むが、他の空間化シネマオーディオシステムは、より少ないまたはより多いシネマスピーカを有してもよい。
(個人化された空間化シネマオーディオシステム)
図16は、上方視から、一実施形態による、個人化された空間化シネマオーディオ体験を生成するために使用され得る、個人化された空間化シネマオーディオシステム500を描写する。個人化された空間化シネマオーディオ体験は、図12および13に描写されるもの等の従来の空間化シネマオーディオ体験の多くの要素を含む。加えて、個人化された空間化シネマオーディオ体験は、従来の空間化シネマオーディオ体験の上に、ユーザ/聴取者の位置、配向、および姿勢を考慮する、個々の空間化オーディオ体験を層状化する。
個人化された空間化シネマオーディオシステム500は、空間化シネマオーディオシステム502と、パーソナル空間化オーディオシステム202とを含む。空間化シネマオーディオシステム502は、シネマ体験のための部屋(例えば、映画館またはホームシネマルーム)の周囲に配置される、複数のシネマスピーカ506−1、506−2、506−3、506−4を含む。空間化シネマオーディオシステム502は、図14に描写され、上記に説明される、システム502と共通するある側面を有する。これらのシステム間の差異は、以下に詳述されるであろう。
パーソナル空間化オーディオシステム202は、聴取者の頭部200上に装着されるように、図16に示される。空間化オーディオシステム202は、フレーム204と、フレーム204に取り付けられる、4つのパーソナル空間化オーディオシステムスピーカ206−1、206−2、206−3、206−4とを含む。空間化オーディオシステムスピーカ206−1は、空間化オーディオシステム202が聴取者の頭部200上に装着されると、スピーカ206−1が聴取者の頭部200の正面Fおよび左Lに来るようにフレーム204に取り付けられる。空間化オーディオシステムスピーカ206−2は、空間化オーディオシステム202が聴取者の頭部200上に装着されると、スピーカ206−2が聴取者の頭部200の正面Fおよび右Rに来るようにフレーム204に取り付けられる。空間化オーディオシステムスピーカ206−3は、空間化オーディオシステム202が聴取者の頭部200上に装着されると、スピーカ206−3が聴取者の頭部200の背後Bおよび左Lに来るようにフレーム204に取り付けられる。空間化オーディオシステムスピーカ206−4は、空間化オーディオシステム202が聴取者の頭部200上に装着されると、スピーカ206−4が聴取者の頭部200の背後Bおよび右Rに来るようにフレーム204に取り付けられる。空間化オーディオシステムスピーカ206−1、206−2、206−3、206−4は全て、聴取者の頭部200に向かって向けられる。パーソナル空間化オーディオシステムスピーカ206−1、206−2、206−3、206−4はまた、パーソナル空間化オーディオシステム202が聴取者の頭部200上に装着されると、スピーカ206−1、206−2、206−3、206−4が聴取者の頭部200から個別の非ゼロ距離に位置するようにフレーム204に取り付けられる。
図16に描写される個人化された空間化シネマオーディオシステム500内のシネマスピーカ506およびパーソナルスピーカ206の設置は、個人化された空間化シネマオーディオの生成および提示を促進する。例えば、シネマスピーカ506は、全てのユーザ/聴取者に共通の映画サウンドトラックならびに背景オブジェクトおよびキャラクタに対応するシネマオーディオを提示し得る。加えて、パーソナルスピーカ206は、パーソナル空間化オーディオシステム202(例えば、AR/MRシステム)を装着する特定のユーザ/聴取者のみに提示される仮想オブジェクトに対応するパーソナルオーディオを提示してもよい。このように、個人化された空間化シネマオーディオ体験は、ユーザ/聴取者毎に、カスタマイズされることができる(例えば、その場所、配向、および頭部姿勢のために)。
パーソナルスピーカ206は、特定のユーザ/聴取者にのみ提示される仮想オブジェクトに対応するパーソナルオーディオを提示するために使用されてもよいが、パーソナルスピーカ206からのパーソナルオーディオは、映画館内の全てのユーザ/聴取者に提示される、映画内のオブジェクトおよびキャラクタに対応してもよい。そのような実施形態では、各ユーザ/聴取者のパーソナルスピーカ206からのパーソナルオーディオは、映画オブジェクトおよびキャラクタに対応するシネマオーディオの補完または置換のいずれかを行ってもよい。パーソナルオーディオがシネマオーディオを補完するかまたは置換するかにかかわらず、個人化された空間化シネマオーディオシステム500は、能動的雑音低減技法を採用し、パーソナルオーディオによって補完または置換されたシネマオーディオの部分を低減または相殺してもよい。これらの実施形態は、シネマオーディオシステムオーディオ場の中心から変位されるユーザ/聴取者のためのシネマオーディオを正確に生産する問題に対処し得る。
図17は、上方視から、図16に描写される個人化された空間化シネマオーディオシステム500実施形態を描写する。しかしながら、図17では、ユーザ/聴取者の頭部200は、その上に装着されたパーソナル空間化オーディオシステム202とともに、左に90°旋回されている。本構成では、パーソナル空間化オーディオシステム202の基準のフレームは、左に90°回転されている。したがって、ユーザ/聴取者の頭部200の右側Rは、シネマ画面/ディスプレイ408に面する一方、ユーザ/聴取者の頭部200の左側Lは、映画館の後方に面する。
図9および11に描写される空間化オーディオシステム202に関して前述(および後述)されるように、パーソナル空間化オーディオシステム202は、ユーザの頭部姿勢/聴取者を認知し、その頭部姿勢を利用し、映画(および/または他のメディア)およびユーザ/聴取者の頭部200の位置と一致するパーソナルオーディオを生成および提示する。例えば、第2の仮想オーディオソース402−2(ホーン)に対応するもの等の個人化された空間化シネマオーディオおよびビデオ体験400における音は、ユーザ/聴取者がオーディオソースを聴取者の頭部200の右および若干上方に位置するように知覚するように提示されるべきである(図12および13参照)。図16に描写される個人化された空間化シネマオーディオシステム500の構成では、ホーンに対応する音は、聴取者の頭部200の右側のパーソナル空間化オーディオシステムスピーカ206−2、206−4によって生成されてもよい。他方では、図17に描写される構成では、ホーンに対応する音は、聴取者の頭部200の背面のパーソナル空間化オーディオシステムスピーカ206−3、206−4によって生成されてもよい。このように、個人化された空間化シネマオーディオシステム500は、ユーザ/聴取者毎に、空間化シネマオーディオをより正確かつ精密に生産することができる。
図16および17に描写される個人化された空間化シネマオーディオシステム500は、4つのシネマスピーカ506−1、506−2、506−3、506−4と、4つのパーソナル空間化オーディオシステムスピーカ206−1、206−2、206−3、206−4とを含むが、他の個人化された空間化シネマオーディオシステム500は、より少ないまたはより多いシネマスピーカ506と、パーソナル空間化オーディオシステムスピーカ206とを含んでもよい。シネマスピーカ506およびパーソナル空間化オーディオシステムスピーカ206の数、タイプ、位置、および配向は、ユーザ/聴取者への個人化された空間化シネマオーディオの提示を最適化するために協調されてもよい。例えば、より大きいシネマスピーカ506(例えば、サブウーファ)が、低周波数音を提示するために使用されてもよい一方、より小さいパーソナル空間化オーディオシステムスピーカ206が、高周波数および中間周波数音を提示するために使用されてもよい。
図18は、一実施形態による、個人化された空間化シネマオーディオシステム500を図式的に描写する。個人化された空間化シネマオーディオシステム500は、シネマオーディオシステム502と、パーソナル空間化オーディオシステム202とを含む。
図18に描写される空間化シネマオーディオシステム502は、複数のシネマスピーカ506−1、506−2と、シネマオーディオプロセッサ536とを含む。シネマオーディオプロセッサ536は、有線導線および/または無線コネクティビティ214によって、シネマスピーカ506−1、506−2に通信可能に結合される。シネマオーディオプロセッサ536は、シネマオーディオソースデータを受信し、シネマオーディオデータを受信されたソースデータから生成する。シネマオーディオプロセッサ536は、インターネット等のネットワークを経由して、映画スタジオまたはメディアコンテンツ送達業者のいずれかによって維持されるデータベースから、シネマオーディオソースデータを受信してもよい。シネマオーディオプロセッサ536は、映画が再生される前に、または映画が再生されている間、リアルタイムで、シネマオーディオソースデータを受信してもよい。図18に描写される空間化シネマオーディオシステム502は、2つのシネマスピーカ506−1、506−2を含むが、他の空間化シネマオーディオシステムは、より少ないまたはより多いシネマスピーカを有してもよい。
図18に描写されるパーソナル空間化オーディオシステム202は、有線導線および/または無線コネクティビティ214を介して、ローカル処理およびデータモジュール216に動作可能に結合される、複数の空間化オーディオシステムスピーカ206−1、206−2を含む。パーソナル空間化オーディオシステム202はまた、有線導線および/または無線コネクティビティ214を介して、ローカル処理およびデータモジュール216に動作可能に結合される、頭部姿勢センサ232を含む。頭部姿勢センサ232は、聴取者/ユーザの頭部姿勢データを収集するように構成される。頭部姿勢センサ232は、画像捕捉デバイス(可視および赤外線光カメラ等)、慣性測定ユニット(加速度計およびジャイロスコープを含む)、コンパス、マイクロホン、GPSユニット、または無線デバイスのうちの1つ以上のものを含んでもよい。図18に描写されるパーソナル空間化オーディオシステム202は、2つのみの空間化オーディオシステムスピーカ206−1、206−2を含むが、他の実施形態による、空間化オーディオシステムは、より多いスピーカを含んでもよい。
パーソナル空間化オーディオシステム202はさらに、頭部姿勢プロセッサ234を含み、少なくとも、頭部姿勢センサ232によって収集される頭部姿勢データに基づいて、パーソナル空間化オーディオシステム202を装着する聴取者/ユーザの頭部姿勢を決定する。本願で使用されるように、「頭部姿勢プロセッサ」は、限定ではないが、コンピュータが頭部姿勢を決定し得る前に、汎用コンピュータに追加されなければならない、コンピュータの1つ以上の別個かつ独立したソフトウェアおよび/またはハードウェアコンポーネント、ならびにそこに追加されるそのようなコンポーネントを有するコンピュータを含む。
パーソナル空間化オーディオシステム202はさらに、空間化オーディオプロセッサ236を含み、少なくとも、頭部姿勢プロセッサ234によって決定された頭部姿勢に基づいて、パーソナル空間化オーディオシステム202を装着する聴取者/ユーザに送達されるべき空間化オーディオのための空間化オーディオデータを生成する。生成された空間化オーディオデータは、空間化音場内の仮想オーディオソース毎に、コンテンツ、位置、配向、および音量データを含んでもよい。本願で使用されるように、「オーディオプロセッサ」は、限定ではないが、コンピュータが空間化オーディオデータを生成し得る前に、汎用コンピュータに追加されなければならない、コンピュータの1つ以上の別個および独立ソフトウェアおよび/またはハードウェアコンポーネント、ならびにそこに追加されるそのようなコンポーネントを有するコンピュータを含む。空間化オーディオプロセッサ234はまた、空間化オーディオデータに基づいて、複数の空間化オーディオシステムスピーカ206−1、206−2のためのオーディオ信号を生成し、空間化オーディオを聴取者/ユーザに送達してもよい。
さらに、パーソナル空間化オーディオシステム202は、同期モジュール244を含み、パーソナル空間化オーディオシステム202によって提示されるパーソナルオーディオとシネマオーディオシステム502によって提示されるシネマオーディオを時間的に同期させる。本時間的同期は、パーソナルオーディオコンテンツがシネマオーディオコンテンツに一致することを確実にする。
図18に描写される個人化された空間化シネマオーディオシステム500内のシネマオーディオシステム502およびパーソナル空間化オーディオシステム202は、パーソナルシネマシステムリンク550を介して、動作可能かつ通信可能に結合される。ある実施形態によると、個人化された空間化シネマオーディオシステム500は、シネマオーディオシステム502からパーソナル空間化オーディオシステム202への一方向通信を含む。一方向通信は、パーソナル空間化オーディオシステム202が、(1)シネマオーディオシステム502によって提示されるシネマメディア(例えば、映画)を識別し、(2)パーソナルメディア(例えば、聴取者/ユーザに具体的な音)とシネマメディアを同期させることを可能にする。したがって、あるタイプのタイミング情報は、個人化された空間化シネマオーディオシステム500を実装するために有用である。
図18に示される実施形態では、パーソナルシネマシステムリンク550は、双方向通信リンクである。例えば、シネマオーディオシステム502およびパーソナル空間化オーディオシステム202は、限定ではないが、Wi−Fi(IEEE802.11x)、Bluetooth(登録商標)、および近距離通信を含む、無線接続によって、動作可能かつ通信可能に結合されてもよい。双方向通信は、シネマオーディオシステム502が、メディア情報552(例えば、メディアに関するメタデータ)をパーソナル空間化オーディオシステム202に送信し、パーソナル空間化オーディオシステム202が、ユーザ/聴取者情報554をシネマオーディオシステム502に送信することを可能にする。
メディア情報552は、メディア識別情報および/またはタイミング情報を含むことができる。メディア識別情報は、タイトル、EIDR番号、および/または他のデジタルオブジェクト識別子を含むことができる。タイミング情報は、タイムコードおよび/またはキューを含むことができる。例示的タイムコードは、UDPパケット内のSMPTEタイムコードまたはMIDIタイムコードである。メディア識別情報は、メディア識別情報を受信するパーソナル空間化オーディオシステム202が、ユーザ/聴取者に、シネマオーディオシステム502によって提示されるシネマオーディオコンテンツを補完するパーソナルオーディオコンテンツを送達することを可能にする。タイミング情報は、パーソナルオーディオコンテンツがシネマオーディオコンテンツに一致するように、個人化されたシネマオーディオシステム500が、パーソナル空間化オーディオシステム202とシネマオーディオシステム502を同期させることを可能にする。
ユーザ/聴取者情報554は、メディアに対するユーザ/聴取者反応に関連する情報を含むことができる。そのような反応情報は、手動で打ち込まれる(例えば、UIを介して)、または自動的に収集されることができる(例えば、記録された眼移動および/または悲鳴等の音)。ユーザ/聴取者情報554はまた、メディアに関連するアプリケーションとのユーザ/聴取者の相互作用に関連する情報を含むことができる。そのようなアプリケーションの実施例は、映画(すなわち、メディア)に基づいてユーザ/聴取者の携帯電話上で起動する、ゲームアプリケーションである。ゲームアプリからのもの等のユーザ/聴取者情報554は、個人化されたシネマオーディオシステム500が、以下に説明されるであろうように、特定のユーザ/聴取者のためにパーソナルオーディオコンテンツをパーソナライズすることに役立つことができる。
図19および20に描写される個人化された空間化シネマオーディオシステム500等の他の実施形態では、パーソナルシネマシステムリンク550は、一方向通信リンク(シネマオーディオシステム502からパーソナル空間化オーディオシステム202に)である。例えば、シネマオーディオシステム502およびパーソナル空間化オーディオシステム202は、シネマシステム(例えば、シネマオーディオシステム502)によって生成され、パーソナル空間化オーディオシステム202によって認識される、1つ以上の光学および/またはオーディオキューによって、動作可能かつ通信可能に結合されてもよい。
オーディオおよび/または光学キューは、メディア識別情報およびタイミング情報の両方を通信してもよい。オーディオキューは、具体的オーディオキュー(例えば、映画サウンドトラックに加え、音波)またはオーディオメディア(例えば、映画サウンドトラック)自体を含んでもよい。具体的オーディオキューは、パーソナルオーディオシステム202が具体的オーディオキューを検出および認識し得る限り、ヒトに可聴または不可聴であってもよい。具体的オーディオキューは、メディア情報552(例えば、メディア識別情報および/またはタイミング情報)でエンコードされたオーディオであることができる。具体的オーディオキューは、既知のインターバルで繰り返され、シネマオーディオシステム502およびパーソナル空間化オーディオシステム202の時間的同期を促進してもよい。
同期インターバルは、システム性能に応じて、変化してもよい。例えば、シネマオーディオシステム502タイミングおよびパーソナル空間化オーディオシステム202タイミングが固定範囲(例えば、1ms)内である場合、同期インターバルは、増加されてもよい。他方では、タイミングが、発散する場合、同期インターバルは、減少されてもよい。
具体的オーディオキューは、大部分の視認者/ユーザによって認識されないように短い時間にわたって1つ以上のシネマスピーカ上で再生され得る、音であってもよい。そのような実施形態では、パーソナルオーディオシステム202は、オーディオセンサ240(例えば、マイクロホン)を含み、図19に示されるように、音を検出する。オーディオセンサ240は、有線導線および/または無線コネクティビティ214等によって、パーソナル空間化オーディオシステム202のローカル処理およびデータモジュール216に動作可能に結合される。音は、平均的ユーザに可聴または不可聴であってもよく、パーソナルオーディオシステム202内の対応するオーディオセンサ240を用いる。
オーディオキューが、オーディオメディア自体を含む、実施形態では、オーディオメディア(例えば、映画サウンドトラック)が、キュー認識システムによって、音調クラスタから作製されるサンプルオーディオデータパケットとして検出されてもよく、これは、データベース(例えば、映画サウンドトラックオーディオデータパケットのデータベース)内の複数の基準オーディオデータパケットと比較され、サンプルオーディオデータパケットと関連付けられたメディアを識別する。サンプルオーディオデータパケットが、基準オーディオデータパケットに合致すると、パーソナルオーディオシステム202は、サンプルオーディオデータパケットと関連付けられたメディア製品(例えば、映画)を識別する。
基準オーディオデータパケットのデータベースは、複数の識別子を含んでもよく、それぞれ、個別の基準オーディオデータパケットと関連付けられる。各識別子は、識別子と関連付けられた映画サウンドトラックおよび/または基準オーディオデータパケットに続く基準オーディオデータパケットのシーケンス内の個別の時間に対応し得る。個人化されたシネマオーディオシステム500は、基準オーディオデータパケットデータベースビルダを含んでもよく、これは、オーディオメディアを走査し、その中の複数の基準オーディオデータパケット(例えば、音調クラスタ)を識別するように構成される。他の実施形態では、基準オーディオデータパケットデータベースビルダは、個人化されたシネマオーディオシステム500と別個であって、これは、ネットワーク(例えば、インターネット)を介して、基準オーディオデータパケットデータベースにアクセスする。
同様に、パーソナルオーディオシステム202は、サンプルオーディオデータパケットとデータベース内の複数の基準オーディオデータパケットを合致させ、サンプルオーディオデータパケットと関連付けられた識別されたメディア製品(例えば、映画)内の時間(例えば、タイムコード)を識別することができる。サンプルオーディオデータパケットが、基準オーディオデータパケットに合致すると、パーソナルオーディオシステム202は、メディア製品(例えば、映画)内の時間(例えば、タイムコード)を識別する。サンプルオーディオデータパケットと基準オーディオデータパケットを合致させ、メディア製品内の時間を識別することは、メディア製品を識別することと同時に、またはメディア製品が識別された後に生じることができる。後者の場合、パーソナルオーディオシステム202は、サンプルオーディオデータパケットとすでに識別されているメディア製品に特有の複数の基準オーディオデータパケットを比較し、システム効率を改良し得る。オーディオデータパケットは、既知のインターバルで繰り返しサンプリングおよび識別され、シネマオーディオシステム502およびパーソナル空間化オーディオシステム202の時間的同期を促進してもよい。繰り返されるオーディオデータパケット識別は、予測される合致するオーディオデータパケットを利用して、そこから前進および/または後進させ、システム効率を改良し得る。
オーディオキューのように、光学キューも、具体的光学キュー(例えば、映画に加え、画像)または光学メディア(例えば、映画)自体を含んでもよい。光学キューは、シネマ光学システムによって提示されてもよい。具体的光学キューは、パーソナルオーディオシステム202が具体的光学キューを検出および認識し得る限り、ヒトに可視または不可視であってもよい。具体的光学キューは、メディア情報552(例えば、メディア識別情報および/またはタイミング情報)でエンコードされた1つ以上の画像であることができる。具体的光学キューは、既知のインターバルで繰り返され、シネマオーディオシステム502およびパーソナル空間化オーディオシステム202の時間的同期を促進してもよい。
具体的光学キューは、大部分の視認者/ユーザによって認識されないように短い時間にわたって画面上に表示され得る、「ウォーターマーク」であってもよい。そのような実施形態では、パーソナルオーディオシステム202は、光学センサ242を含み、図20に示されるように、ウォーターマークを検出する。光学センサ240は、有線導線および/または無線コネクティビティ214等によって、パーソナル空間化オーディオシステム202のローカル処理およびデータモジュール216に動作可能に結合される。ウォーターマークは、可視光または不可視(例えば、赤外線)光を使用して提示されてもよく、パーソナルオーディオシステム202内の対応する光学センサ240を用いる。
光学キューが光学メディア自体を含む実施形態では、光学メディア(例えば、映画)は、キュー認識システムによって、サンプル光学データパケットとして検出されてもよく、これは、データベース(例えば、映画画像光学データパケットのデータベース)内の複数の基準光学データパケットと比較され、サンプル光学データパケットと関連付けられたメディアを識別する。サンプル光学データパケットが、基準光学データパケットに合致すると、パーソナルオーディオシステム202は、サンプル光学データパケットと関連付けられたメディア製品(例えば、映画)を識別する。
同様に、パーソナルオーディオシステム202は、サンプル光学データパケットとデータベース内の複数の基準光学データパケットを合致させ、サンプル光学データパケットと関連付けられた識別されたメディア製品(例えば、映画)内の時間(例えば、タイムコード)を識別することができる。サンプル光学データパケットが、基準光学データパケットに合致すると、パーソナルオーディオシステム202は、メディア製品(例えば、映画)内の時間(例えば、タイムコード)を識別する。サンプル光学データパケットと基準光学データパケットを合致させ、メディア製品内の時間を識別することは、メディア製品を識別することと同時に、またはメディア製品が識別された後に生じることができる。後者の場合、パーソナルオーディオシステム202は、サンプル光学データパケットとすでに識別されているメディア製品に特有の複数の基準光学データパケットを比較し、システム効率を改良し得る。光学データパケットは、既知のインターバルで繰り返しサンプリングおよび識別され、シネマ光学システム502およびパーソナル空間化光学システム202の時間的同期を促進してもよい。繰り返される光学データパケット識別は、予測される合致する光学データパケットを利用し、そこから前進および/または後進し、システム効率を改良し得る。
パーソナルシネマシステムリンク550が、双方向通信リンクであるかまたは一方向通信リンクであるかにかかわらず、シネマオーディオシステム502は、図19および20に示されるように、パーソナルシネマシステムリンク550を経由して、メディア情報552(例えば、メディア識別情報およびタイミング情報)をパーソナル空間化オーディオシステム202に送信することができる。
種々の実施形態による、パーソナライズされた空間化オーディオシステム202および個人化されたシネマオーディオシステム500の種々の側面が説明されたが、空間化オーディオシステム(例えば、202)および個人化されたシネマオーディオシステム(例えば、500)を使用してパーソナライズされた空間化オーディオおよび個人化されたシネマオーディオを提示するための方法が、ここで説明されるであろう。
図21は、一実施形態による、パーソナライズされた空間化オーディオシステムを利用して空間化オーディオを提示する方法600を描写する。パーソナライズされた空間化オーディオシステム202は、例えば、図9、11および18−20に示されるように、頭部姿勢センサ232と、頭部姿勢プロセッサ234と、空間化オーディオプロセッサ236と、パーソナル空間化オーディオシステムスピーカ206とを含んでもよい。
ステップ602では、パーソナライズされた空間化オーディオシステム202は、随意に、ソースオーディオデータを受信する。ソースオーディオデータは、パーソナライズされた空間化オーディオシステム202のスピーカ206を介してユーザ/聴取者に送達されることが意図される、音に対応する。ソースオーディオデータは、有線または無線接続を介してデータベースから受信されてもよい。代替として、ソースオーディオデータは、前もって受信され、パーソナライズされた空間化オーディオシステム202上に記憶されてもよい。パーソナライズされた空間化オーディオシステム202は、スピーカ206によって提示される音がユーザ/聴取者の頭部姿勢に一致するように、ソースオーディオデータを修正する。ユーザの頭部(現在の頭部姿勢によって修正される)と仮想音源との間の相対的座標(角度座標を含む)は、モノチャネルオーディオを処理し、スピーカ206を通して出力される、左および右側空間化オーディオチャネルを提供するために使用され得る、対応する頭部関連伝達関数(HRTF)を選択するために使用されることができる。
ステップ604では、パーソナライズされた空間化オーディオシステム202は、姿勢データ(例えば、頭部姿勢センサ232を通した頭部姿勢データ)を収集する。頭部姿勢センサ232は、画像捕捉デバイス(可視および赤外線光カメラ等)、慣性測定ユニット(加速度計およびジャイロスコープを含む)、コンパス、マイクロホン、GPSユニット、および無線デバイスのうちの1つ以上のものを含んでもよい。頭部姿勢センサ232は、画像、加速およびジャイロスコープ情報、コンパス情報、音、GPS情報、ならびに無線伝送のうちの1つ以上のものの形態で頭部姿勢データを収集してもよい。本データは全て、ユーザ/聴取者の頭部姿勢を決定するために使用されてもよい。
ステップ606では、パーソナライズされた空間化オーディオシステム202(例えば、頭部姿勢プロセッサ234)は、現在パーソナライズされた空間化オーディオシステム202を装着しているユーザ/聴取者の姿勢(例えば、頭部姿勢)を決定する。頭部姿勢プロセッサ234によって実施される計算は、収集される姿勢データ(例えば、頭部姿勢センサ232を通して)のタイプに応じて変動する。
ステップ608では、パーソナライズされた空間化オーディオシステム202(例えば、オーディオプロセッサ236)は、空間化オーディオデータをソースオーディオデータおよびユーザ/聴取者の決定された姿勢から生成する。例えば、ユーザ/聴取者の頭部は、図17に示されるように、左に旋回され、パーソナライズされた空間化オーディオシステム202は、事実上、仮想オブジェクトからユーザ/聴取者の左に発出する音が、ユーザ/聴取者の頭部の正面から生じるように現れるように、空間化オーディオデータを生成するであろう。空間化オーディオデータはまた、ヨーに加え、ユーザ/聴取者の頭部のピッチおよびロールを考慮するように生成されることができる。さらに、空間化オーディオデータは、ユーザ/聴取者の頭部から仮想音源の仮想距離を考慮するように生成されることができる。
ステップ610では、パーソナライズされた空間化オーディオシステム202(例えば、スピーカ206)は、空間化オーディオデータに基づいて、音を提示する。図2−8に示されるもの等のスピーカ206の構成は、3つの軸(例えば、X、Y、およびZ軸)に沿って可変である、音(例えば、空間化オーディオ)の提示を促進する。
図22は、一実施形態による、個人化されたシネマオーディオのコンポーネントを同期させ、個人化されたシネマオーディオシステムを利用して個人化されたシネマオーディオを提示する方法700を描写する。個人化されたシネマオーディオシステム500は、例えば、図18−20に示されるように、パーソナライズされた空間化オーディオシステム202と、シネマオーディオシステム502とを含んでもよい。パーソナライズされた空間化オーディオシステム202は、頭部姿勢センサ232と、頭部姿勢プロセッサ234と、空間化オーディオプロセッサ236と、同期モジュール244と、パーソナル空間化オーディオシステムスピーカ206とを含む。シネマオーディオシステム502は、シネマプロセッサ536と、シネマスピーカ506とを含む。パーソナライズされた空間化オーディオシステム202およびシネマオーディオシステム502は、双方向リンク(図18)または一方向リンク(図19および20)であり得る、パーソナルシネマシステムリンク550によって、動作可能に結合される。
ステップ702では、パーソナライズされた空間化オーディオシステム202およびシネマオーディオシステム502は、随意に、接続される。本ステップは、典型的には、限定ではないが、Wi−Fi(IEEE802.11x)、Bluetooth(登録商標)、および近距離通信を含む、無線接続等の双方向リンク550を用いて生じる。双方向リンク550を用いた実施形態では、パーソナライズされた空間化オーディオシステム202およびシネマオーディオシステム502は、認証(例えば、Wi−Fiパスワード)を伴い得る、ハンドシェイクプロトコルを使用して、接続されてもよい。同期モジュール244は、本接続に寄与することができる。
ステップ704では、個人化されたシネマオーディオシステム500(すなわち、パーソナライズされた空間化オーディオシステム202の同期モジュール244)は、メディア識別情報をシネマオーディオシステム502から受信する。メディア識別情報は、タイトル、EIDR番号、および/または他のデジタルオブジェクト識別子を含むことができる。メディア識別情報は、メディア識別情報を受信するパーソナル空間化オーディオシステム202が、ユーザ/聴取者に、シネマオーディオシステム502によって提示されるシネマオーディオコンテンツを補完するパーソナルオーディオコンテンツを送達することを可能にする。メディア識別情報は、シネマオーディオシステム502からパーソナル空間化オーディオシステム202に通信されてもよい(例えば、双方向リンク550を経由して)。
パーソナライズされた空間化オーディオシステム202およびシネマオーディオシステム502が接続されない実施形態では、メディア識別情報はまた、具体的オーディオキュー(例えば、映画サウンドトラックに加え、音波)またはオーディオメディア(例えば、映画サウンドトラック)自体等のオーディオキューを使用して通信されてもよい。さらに、メディア識別情報はまた、具体的光学キュー(例えば、映画に加え、画像)または光学メディア(例えば、映画)自体等の光学キューを使用して通信されてもよい。
ステップ706では、個人化されたシネマオーディオシステム500(すなわち、パーソナライズされた空間化オーディオシステム202の同期モジュール244)は、受信されたメディア識別情報を分析することによって、メディアを識別する。メディアを識別するために、空間化オーディオプロセッサ236は、単に、タイトル、EIDR番号、および/または他のデジタルオブジェクト識別子を読み取ってもよい。代替として、空間化オーディオプロセッサ236は、メディア識別情報と既知のデータのセット(例えば、具体的オーディオ/光学キュー)を比較してもよい。キューがメディア自体を含む実施形態では、メディア(例えば、映画サウンドトラックまたは映画)は、キュー認識システムによって、サンプルデータパケットとして検出されてもよく、これは、データベース(例えば、映画サウンドトラックオーディオデータパケットのデータベースまたは映画画像光学データパケットのデータベース)内の複数の基準データパケットと比較され、サンプルデータパケットと関連付けられたメディアを識別する。サンプルデータパケットが、基準データパケットに合致すると、パーソナルオーディオシステム202は、サンプルデータパケットと関連付けられたメディア製品(例えば、映画)を識別する。
ステップ708では、個人化されたシネマオーディオシステム500(すなわち、パーソナライズされた空間化オーディオシステム202の同期モジュール244)は、タイミング情報をシネマオーディオシステム502から受信する。タイミング情報は、タイムコードおよび/またはキューを含むことができる。タイミング情報は、パーソナルオーディオコンテンツがシネマオーディオコンテンツに一致するように、個人化されたシネマオーディオシステム500が、パーソナル空間化オーディオシステム202とシネマオーディオシステム502を同期させることを可能にする。タイミング情報は、シネマオーディオシステム502からパーソナル空間化オーディオシステム202に通信されてもよい(例えば、双方向リンク550を経由して)。
パーソナライズされた空間化オーディオシステム202およびシネマオーディオシステム502が接続されない実施形態では、タイミング情報はまた、具体的オーディオキュー(例えば、映画サウンドトラックに加え、音波)またはオーディオメディア(例えば、映画サウンドトラック)自体等のオーディオキューを使用して通信されてもよい。さらに、タイミング情報はまた、具体的光学キュー(例えば、画像に加え、映画)または光学メディア(例えば、映画)自体等の光学キューを使用して通信されてもよい。
ステップ710では、個人化されたシネマオーディオシステム500(すなわち、パーソナライズされた空間化オーディオシステム202の同期モジュール244)は、を受信されたタイミング情報を分析することによって、メディア内の時間を識別する。時間を識別するために、空間化オーディオプロセッサ236は、単に、タイムコードを読み取ってもよい。代替として、空間化オーディオプロセッサ236は、タイミング情報と既知のデータのセット(例えば、具体的オーディオ/光学キュー)を比較してもよい。キューがメディア自体を含む実施形態では、メディア(例えば、映画サウンドトラックまたは映画)は、キュー認識システムによって、サンプルデータパケットとして検出されてもよく、これは、データベース(例えば、映画サウンドトラックオーディオデータパケットのデータベースまたは映画画像光学データパケットのデータベース)内の複数の基準データパケットと比較され、サンプルデータパケットと関連付けられたメディアを識別する。サンプルデータパケットが、基準データパケットに合致すると、パーソナルオーディオシステム202は、サンプルデータパケットと関連付けられたメディア製品(例えば、映画)を識別する。パーソナルオーディオシステム202は、サンプルデータパケットとすでに識別されているメディアに特有の複数の基準データパケットを比較し、システム効率を改良し得る。
ステップ712では、個人化されたシネマオーディオシステム500(すなわち、パーソナライズされた空間化オーディオシステム202の同期モジュール244)は、メディア内の識別された時間およびパーソナライズされたオーディオ内の既知の時間を使用して、パーソナライズされたオーディオデータおよびシネマオーディオデータ(すなわち、パーソナライズされた空間化オーディオシステム202およびシネマオーディオシステム502)を同期させる。パーソナライズされたオーディオデータおよびシネマオーディオデータを同期させることは、パーソナルオーディオコンテンツがシネマオーディオコンテンツに一致することを確実にする。例えば、パーソナルオーディオコンテンツが、交響曲を演奏しているオーケストラであって、シネマオーディオコンテンツが、交響曲のバス部分である場合、パーソナライズされたオーディオデータおよびシネマオーディオデータを同期させることは、バス部分がシネマオーディオシステム502のより大きいスピーカ506を通して送達され、交響曲の残りがパーソナル空間化オーディオシステム202のより小さいスピーカ206を通して送達されることを確実にする。
ステップ714では、個人化されたシネマオーディオシステム500(例えば、空間化オーディオシステム202の空間化オーディオシステムスピーカ206およびシネマオーディオシステム502のシネマスピーカ206)は、同期されるパーソナルオーディオデータおよびシネマオーディオデータに対応するオーディオ/音(例えば、パーソナライズされたオーディオおよびシネマオーディオ)を提示する。個人化されたシネマオーディオシステム500は、デジタル/アナログコンバータおよび増幅器を通して、パーソナルオーディオデータおよびシネマオーディオデータをオーディオ/音としてレンダリングすることができる。
図22では図示されないが、タイムコードおよび/またはデータパケットは、既知のインターバルで繰り返しサンプリングおよび識別され、シネマオーディオデータおよびパーソナル空間化オーディオデータの時間的同期を促進してもよい。繰り返されるデータパケット識別は、予測される合致するデータパケットを利用して、そこから前進および/または後進し、システム効率を改良し得る。
サンプルデータパケットと基準データパケットを合致させ、メディア製品内の時間を識別することは、メディア製品が識別された後(図22)、またはメディア製品の識別と同時に生じることができる。例えば、図23は、別の実施形態による、個人化されたシネマオーディオシステムを利用して個人化されたシネマオーディオを提示する方法700’を描写する。図23に描写される方法700’におけるステップ702、712、および714は、図22に描写される方法700における対応するステップと同じである。
方法700、700’間の1つの差異は、方法700からのステップ704および708は、方法700’における新しいステップ704’にまとめられることである。ステップ704’では、個人化されたシネマオーディオシステム500(すなわち、パーソナライズされた空間化オーディオシステム202の同期モジュール244)は、メディア識別情報およびタイミング情報をシネマオーディオシステム502から受信する。メディア識別情報およびタイミング情報の受信に関する詳細は、方法700からのステップ704および708に関して上記に説明されるものに類似する。1つの差異は、識別情報およびタイミング情報の両方が同一キューを使用して伝送され得ることである。
方法700、700’間の別の差異は、方法700からのステップ706および710が方法700’における新しいステップ706’にまとめられることである。ステップ706’では、個人化されたシネマオーディオシステム500(すなわち、パーソナライズされた空間化オーディオシステム202の同期モジュール244)は、受信されたメディア識別情報およびタイミング情報を分析することによって、メディアおよびメディア内の時間を識別する。メディアおよびメディア内の時間の識別に関する詳細は、方法700からのステップ706および710に関して上記に説明されるものに類似する。1つの差異は、キューがメディア自体を含む実施形態に関して、メディア(例えば、映画サウンドトラックまたは映画)が、キュー認識システムによって、サンプルデータパケットとして検出されてもよく、これが、データベース(例えば、映画サウンドトラックオーディオデータパケットのデータベースまたは映画画像光学データパケットのデータベース)内の複数の基準データパケットと比較され、サンプルデータパケットと関連付けられたメディアおよびその中の時間を識別することである。
図24は、一実施形態による、個人化されたシネマオーディオシステムを利用して修正されるシネマオーディオを提示する方法800を描写する。個人化されたシネマオーディオシステム500は、例えば、図18に示されるように、パーソナライズされた空間化オーディオシステム202と、シネマオーディオシステム502とを含んでもよい。パーソナライズされた空間化オーディオシステム202は、頭部姿勢センサ232と、頭部姿勢プロセッサ234と、空間化オーディオプロセッサ236と、同期モジュール244と、パーソナル空間化オーディオシステムスピーカ206とを含む。シネマオーディオシステム502は、シネマプロセッサ536と、シネマスピーカ506とを含む。パーソナライズされた空間化オーディオシステム202およびシネマオーディオシステム502は、双方向パーソナルシネマシステムリンク550によって、動作可能に結合される。
ステップ802では、個人化されたシネマオーディオシステム500(すなわち、パーソナライズされた空間化オーディオシステム202)は、ユーザ/聴取者情報を収集する。ユーザ/聴取者情報554は、メディアに対するユーザ/聴取者反応に関連する情報を含むことができる。そのような反応情報は、手動で打ち込まれる(例えば、UIを介して)、または自動的に収集されることができる(例えば、記録された眼移動および/または悲鳴等の音)。ユーザ/聴取者情報554は、パーソナライズされた空間化オーディオシステム202に動作可能に結合される種々のセンサによって、収集されることができる。
ステップ804では、パーソナライズされた空間化オーディオシステム202は、ユーザ/聴取者情報をシネマオーディオシステム502に送信する。順に、シネマオーディオシステム502は、ユーザ/聴取者情報をパーソナライズされた空間化オーディオシステム202から受信する。ユーザ/聴取者情報の本伝送は、双方向パーソナルシネマシステムリンク550を介して生じることができる。
ステップ806では、個人化されたシネマオーディオシステム500(すなわち、シネマオーディオシステム502)は、随意に、シネマオーディオデータを受信する。シネマオーディオデータは、映画送達業者によって動作されるホストコンピュータ上のデータベースから受信されることができる。そのような実施形態では、シネマオーディオシステム502は、随意に、ネットワーク(例えば、インターネット)を介して、シネマオーディオデータをホストコンピュータから受信する。
ステップ808では、個人化されたシネマオーディオシステム500(すなわち、シネマオーディオシステム502)は、ユーザ/聴取者情報に基づいて、シネマオーディオデータを修正する。例えば、ユーザ/聴取者情報が個別のパーソナライズされた空間化オーディオシステム202を装着している多くの観客からの悲鳴を含む、ある実施形態では、シネマオーディオシステム502は、シネマオーディオデータを修正し、観客からの悲鳴を追加してもよい。本修正は、観客のための映画サウンドトラックをパーソナライズする。
ステップ810では、シネマオーディオシステム502(例えば、シネマスピーカ506)は、修正されたシネマオーディオデータに基づいて、音を提示する。シネマスピーカ506は、3つの軸(例えば、X、Y、およびZ軸)に沿って可変である、音(例えば、空間化オーディオ)の提示を促進するように構成されることができる。
いくつかの実施形態では、ユーザ/聴取者情報554は、メディアに関連するアプリケーションとのユーザ/聴取者の相互作用に関連する情報を含むことができる。そのようなアプリケーションの実施例は、映画(すなわち、メディア)に基づいて、ユーザ/聴取者の携帯電話上で起動するゲームアプリケーションである。ゲームアプリからのもの等のユーザ/聴取者情報554は、個人化されたシネマオーディオシステム500が、特定のユーザ/聴取者のためにパーソナルオーディオコンテンツをパーソナライズすることに役立つことができる。例えば、メディアの一部としてユーザ/聴取者に提示されるキャラクタ/アバタは、メディアに基づいて、ゲームアプリ内のユーザ/聴取者のレベルに応じて変動されることができる。キャラクタ/アバタは、AR/MRディスプレイシステムに接続される、パーソナライズされた空間化オーディオシステム202を介して提示されることができる。
例えば、図25は、一実施形態による、個人化されたシネマオーディオシステムを利用してパーソナルオーディオを選択的に提示する方法900を描写する。個人化されたシネマオーディオシステム500は、例えば、図18に示されるように、パーソナライズされた空間化オーディオシステム202と、シネマオーディオシステム502とを含んでもよい。パーソナライズされた空間化オーディオシステム202は、頭部姿勢センサ232と、頭部姿勢プロセッサ234と、空間化オーディオプロセッサ236と、同期モジュール244と、パーソナル空間化オーディオシステムスピーカ206とを含む。シネマオーディオシステム502は、シネマプロセッサ536と、シネマスピーカ506とを含む。パーソナライズされた空間化オーディオシステム202およびシネマオーディオシステム502は、双方向パーソナルシネマシステムリンク550によって、動作可能に結合される。
ステップ902では、個人化されたシネマオーディオシステム500(すなわち、パーソナライズされた空間化オーディオシステム202)は、ユーザ/聴取者情報を収集する。ユーザ/聴取者情報554は、メディアに関連するアプリケーションとのユーザ/聴取者の相互作用に関連する情報を含むことができる。上記に説明されるように、ユーザ/聴取者情報554は、映画に関連するゲームアプリ内のユーザのレベルまたは進行度を含んでもよい。ユーザ/聴取者の電話上で起動するゲームアプリを伴う実施形態では、パーソナライズされた空間化オーディオシステム202は、ユーザ/聴取者の電話との無線リンク(例えば、Wi−Fi、Bluetooth(登録商標)、NFC等)を介して、ユーザ/聴取者情報554を収集することができる。
ステップ904では、個人化されたシネマオーディオシステム500(すなわち、パーソナライズされた空間化オーディオシステム202)は、受信されたユーザ/聴取者情報に基づいて、パーソナルオーディオデータを選択的に要求する。例えば、要求されるパーソナルオーディオデータは、ゲームアプリ内のユーザ/聴取者のレベルに対応してもよい。パーソナルオーディオデータのための要求は、同様にゲーム内のユーザ/聴取者のレベルに対応する、パーソナルAR/MRデータのための要求を随伴してもよい。パーソナルオーディオデータは、映画館または映画送達業者によって動作されるホストコンピュータ上のデータベースから要求されることができる。そのような実施形態では、パーソナライズされた空間化オーディオシステム202は、ネットワーク(例えば、WLANネットワークおよび/またはインターネット)を介して、要求をホストコンピュータに送信する。
ステップ906では、個人化されたシネマオーディオシステム500(すなわち、パーソナライズされた空間化オーディオシステム202)は、要求されるパーソナルオーディオデータを受信する。パーソナルオーディオデータは、映画館または映画送達業者によって動作されるホストコンピュータ上のデータベースから受信されることができる。そのような実施形態では、パーソナライズされた空間化オーディオシステム202は、ネットワーク(例えば、インターネット)を介して、パーソナルオーディオデータをホストコンピュータから受信する。
ステップ908では、パーソナライズされた空間化オーディオシステム202(例えば、パーソナル空間化オーディオシステムスピーカ206)は、要求されるパーソナルオーディオデータに基づいて、音を提示する。図2−8に示されるもの等のスピーカ206の構成は、3つの軸(例えば、X、Y、およびZ軸)に沿って可変である、音(例えば、空間化オーディオ)の提示を促進する。
ステップ910では、パーソナライズされた空間化オーディオシステム202は、随意に、要求されるパーソナルオーディオデータをシネマオーディオシステム502に送信し、これは、順に、要求されるパーソナルオーディオデータを受信する。シネマオーディオシステム502への要求されるパーソナルオーディオデータの伝送は、シネマオーディオシステムが、適切な場合、パーソナルオーディオに一致するようにシネマオーディオを修正することを可能にする。
(個人化された空間化シネマ体験)
1つの例示的な個人化された空間化シネマ体験は、映画館に居るAR/MRディスプレイおよび空間化オーディオシステムを装着している複数のユーザを伴う。AR/MRディスプレイおよび空間化オーディオシステムはそれぞれ、シネマビデオおよびオーディオプロセッサと同期され、ユーザ毎に、個人化された空間化シネマ体験を提供する。例えば、AR/MRディスプレイおよび空間化オーディオシステムは、上記に説明される技法のいずれかを使用して、シネマビデオおよびオーディオプロセッサと同期されてもよい。故に、空間化オーディオシステム内のAR/MRディスプレイは、シネマビデオおよびオーディオプロセッサを使用して表示されているメディアに対応する、メディア識別およびタイミング情報へのアクセスを有する。前述のように、タイミング情報は、適切なインターバルで要求され、時間的同期を維持することができる。
例えば、メディア(例えば、映画)は、ユーザに向かって移動するシネマ画面上のロボットを描写することができる。ロボットがシネマ画面の縁に到達する前に、シネマビデオおよびオーディオシステムは、画像またはオーディオを能動的に生成しないAR/MRディスプレイおよび空間化オーディオシステムを用いて、画像およびオーディオの全てを提示することができる。AR/MRディスプレイおよび空間化オーディオシステムは、ユーザの耳および眼を閉塞しないため、ユーザは、シネマシステムによって生成されたメディアを視認および聴取することができる。ロボットがシネマ画面の縁に到達すると、観客におけるAR/MRディスプレイおよび空間化オーディオシステムは、AR/MR画像および空間化オーディオの生成を開始する。同時に、シネマディスプレイの一部は、AR/MR画像に一致するように修正されることができる。例えば、シネマディスプレイのあるピクセルは、ブランクアウトされることができる。
ロボットは、「画面外に歩き出し」、各ユーザの手が届く範囲まで来ることができる。ロボットは、現在、各ユーザのAR/MRディスプレイおよび空間化オーディオシステムによって提示されているため、各ユーザは、ライトフィールドによってレンダリングされる個人化されたロボットおよび空間化オーディオシステム内のそのAR/MRディスプレイによって生成された音場を視認および聴取するであろう。ロボットは、現在、ユーザ毎に個人化されているため、ユーザは、ロボットが彼らの隣に着座しているユーザと相互作用する様子を視認および聴取し得ない。代替として、各ユーザは、その近隣と相互作用する複数のロボットを視認および聴取してもよい。
これは、個人化された空間化シネマ体験として説明されたが、本明細書に説明されるシステムおよび方法は、ゲームおよび複合メディア体験等の他の体験にも等しく適用される。空間化オーディオの追加を含む、そのような体験の個人化は、ユーザ享受を著しく増加させる。
種々のシステムコンポーネントが、上記に説明されるパーソナライズされた空間化オーディオシステムおよび個人化されたシネマオーディオシステムにおける種々の構成で説明されるが、システム構成は、例証的であって、限定ではないことが意図される。例えば、描写されない実施形態では、具体的システムコンポーネントは、システムの異なる部分に配置されてもよい。さらに、複数のシステムコンポーネントに属する機能は、単一システムコンポーネントによって実施されてもよい。さらに、単一システムコンポーネントに属する複数の機能は、複数のシステムコンポーネントによって実施されてもよい。
種々のステップが、具体的順序で種々の方法(例えば、空間化オーディオを生成する、パーソナルオーディオシステムとシネマオーディオシステムをリンクさせる、および個人化されたシネマオーディオを生成する)で説明されるが、本明細書に説明されるステップは、所望の結果が達成される限り、任意の順序で実施されてもよい。
パーソナルオーディオデータ(例えば、メディア、メディア識別情報、およびタイミング情報)は、いくつかの実施形態では、パーソナルオーディオシステムにストリームされてもよい。他の実施形態では、パーソナルオーディオデータは、パーソナルオーディオデータが個人化されたシネマオーディオ体験を生成するために必要とされる前に、パーソナルオーディオシステムに事前にロードされてもよい。さらに他の実施形態では、パーソナルオーディオデータは、ある分数のオーディオデータを保持する、パーソナルオーディオシステムの作業バッファの中にストリームされてもよい。次いで、映画が再生されるにつれて、システムは、パーソナルオーディオデータを作業バッファの中にストリームすることができる。そのようなシステムは、要求されるメモリを最小限にし、事前ロード時間を最小限にし、ネットワーク途絶の場合も機能を提供するであろう。
いくつかの実施形態では、シネマプロセッサは、現在の映画場面についてのメタデータ(例えば、幾何学形状および材料データ)を伝達してもよく、これは、パーソナルオーディオシステム内の空間化オーディオプロセッサに送信され、現在の映画場面に関連する音響モデル化を改良することができる。
本発明の種々の例示的実施形態が、本明細書で説明される。非限定的な意味で、これらの実施例が参照される。それらは、本発明のより広く適用可能な側面を例証するように提供される。種々の変更が、説明される本発明に行われてもよく、本発明の真の精神および範囲から逸脱することなく、均等物が置換されてもよい。加えて、特定の状況、材料、物質組成、プロセス、プロセス行為、またはステップを本発明の目的、精神、もしくは範囲に適合させるように、多くの修正が行われてもよい。さらに、当業者によって理解されるように、本明細書で説明および例証される個々の変形例のそれぞれは、本発明の範囲または精神から逸脱することなく、他のいくつかの実施形態のうちのいずれかの特徴から容易に分離され、またはそれらと組み合わせられ得る、離散構成要素および特徴を有する。全てのそのような修正は、本開示と関連付けられる請求項の範囲内にあることを目的としている。
本発明は、対象デバイスを使用して行われ得る方法を含む。方法は、そのような好適なデバイスを提供するという行為を含んでもよい。そのような提供は、エンドユーザによって行われてもよい。換言すれば、「提供する」行為は、単に、エンドユーザが、対象方法において必須デバイスを提供するように、取得し、アクセスし、接近し、位置付けし、設定し、起動し、電源を入れ、または別様に作用することを要求する。本明細書で記載される方法は、論理的に可能である記載された事象の任意の順番で、ならびに事象の記載された順番で実行されてもよい。
本発明の例示的側面が、材料選択および製造に関する詳細とともに、上記で記載されている。本発明の他の詳細に関しては、これらは、上記で参照された特許および出版物と関連して理解されるとともに、概して、当業者によって既知または理解され得る。一般的または論理的に採用されるような付加的な行為の観点から、本発明の方法ベースの側面に関して、同じことが当てはまり得る。
加えて、本発明は、種々の特徴を随意的に組み込むいくつかの実施例を参照して説明されているが、本発明は、本発明の各変形例に関して考慮されるような説明および指示されるものに限定されるものではない。種々の変更が、説明される本発明に行われてもよく、本発明の真の精神および範囲から逸脱することなく、均等物(本明細書に記載されようと、いくらか簡単にするために含まれていなかろうと)が置換されてもよい。加えて、値の範囲が提供される場合、その範囲の上限と下限との間の全ての介在値、およびその規定範囲内の任意の他の規定または介在値が、本発明内に包含されることを理解されたい。
また、説明される本発明の変形例の任意の随意的な特徴が、独立して、または本明細書で説明される特徴のうちのいずれか1つ以上のものと組み合わせて、記載および請求されてもよいことが考慮される。単数形のアイテムへの参照は、複数形の同一のアイテムが存在するという可能性を含む。より具体的には、本明細書で、および本明細書に関連付けられる請求項で使用されるように、「1つの(「a」、「an」)」、「該(said)」、および「該(the)」という単数形は、特に規定がない限り、複数形の指示対象を含む。換言すれば、冠詞の使用は、上記の説明ならびに本開示と関連付けられる請求項において、対象アイテムの「少なくとも1つ」を可能にする。さらに、そのような請求項は、任意の随意的な要素を除外するように起草され得ることに留意されたい。したがって、この記述は、請求項の要素の記載と関連して、「単に(solely)」、「のみ(only)」、および同等物等のそのような排他的用語の使用、または「否定的」制限の使用のために、先行詞としての機能を果たすことを目的としている。
そのような排他的用語を使用することなく、本開示と関連付けられる請求項での「備える(comprising)」という用語は、所与の数の要素がそのような請求項で列挙されるか、または特徴の追加をそのような請求項に記載される要素の性質の変換として見なすことができるかにかかわらず、任意の付加的な要素を含むことを可能にするものとする。本明細書で具体的に定義される場合を除いて、本明細書で使用される全ての技術および科学用語は、請求項の有効性を維持しながら、可能な限り広い一般的に理解されている意味を与えられるものである。
本発明の範疇は、提供される実施例および/または対象の明細書に限定されるものではなく、むしろ、本開示と関連付けられる請求項の言葉の範囲のみによって限定されるものである。
前述の明細書では、本発明は、その具体的実施形態を参照して説明された。しかしながら、種々の修正および変更が、本発明のより広義の精神および範囲から逸脱することなくそこに成されてもよいことは、明白となるであろう。例えば、前述のプロセスフローは、プロセス作用の特定の順序を参照して説明される。しかしながら、説明されるプロセス作用の多くの順序は、本発明の範囲または動作に影響を及ぼすことなく、変更されてもよい。明細書および図面は、故に、限定的意味ではなく、例証的と見なされるべきである。

Claims (11)

  1. 空間化オーディオシステムであって、
    ユーザの頭部上に装着されるフレームと、
    複数のスピーカであって、前記複数のスピーカは、前記フレームが前記ユーザによって装着されると、前記複数のスピーカのそれぞれが、前記ユーザの頭部から個別の非ゼロ距離に配置され、前記複数のスピーカのそれぞれが、前記ユーザの耳を含む前記ユーザの頭部の任意の表面に接触しないように、前記フレームに取り付けられる、複数のスピーカと、
    前記ユーザの頭部姿勢データを収集するための頭部姿勢センサと、
    前記ユーザの頭部姿勢を前記頭部姿勢データから決定するための頭部姿勢プロセッサと、
    前記ユーザの前記決定された頭部姿勢に基づいて空間化オーディオデータを生成するための空間化オーディオプロセッサと、
    前記空間化オーディオプロセッサに動作可能に結合されるシネマオーディオプロセッサであって、前記シネマオーディオプロセッサは、シネマオーディオデータを生成する、シネマオーディオプロセッサと、
    前記生成されたシネマオーディオデータに対応するシネマサウンドを生成するための複数のシネマスピーカと、
    前記シネマオーディオプロセッサへの伝送のためのユーザ情報を収集するためのユーザセンサと
    を備え、
    前記空間化オーディオプロセッサは、前記シネマオーディオプロセッサから第1のタイミング情報を受信し、
    前記空間化オーディオプロセッサは、
    第1の時間において前記第1のタイミング情報を受信し、前記第1の時間において第1の音を第2の音と同期させることと、
    前記第1の時間より後の第2の時間において第2のタイミング情報を受信し、前記第2の時間において前記第1の音を前記第2の音と同期させることと
    を行い、
    前記スピーカは、前記生成された空間化オーディオデータに対応する前記第1の音を生成し、
    前記ユーザ情報は、前記ユーザからのサンプリングされた音を含み、修正されたシネマオーディオデータが、前記サンプリングされた音を組み込む、システム。
  2. 前記シネマオーディオプロセッサは、前記空間化オーディオプロセッサにシネマ情報を伝送し、
    前記シネマ情報は、タイミング情報、仮想オブジェクト音情報、位置情報、配向情報、ハイパーリンク、または音響モデル化情報のうちの1つを含む、請求項1に記載のシステム。
  3. 前記空間化オーディオプロセッサは、前記空間化オーディオプロセッサと前記シネマオーディオプロセッサとの間の待ち時間差を補償する、請求項1に記載のシステム。
  4. 前記シネマオーディオプロセッサは、前記第2の音が前記修正されたシネマオーディオデータに対応するように、前記ユーザ情報に基づいて、前記シネマオーディオデータを修正する、請求項1に記載のシステム。
  5. 前記複数のシネマスピーカは、低周波数音を生成するように構成されるサブウーファを含み、
    前記ユーザ情報は、低周波数オーディオデータを含み、
    前記シネマオーディオプロセッサは、前記低周波数オーディオデータに基づいて前記シネマオーディオデータを修正し、
    前記サブウーファは、前記修正されたシネマオーディオデータに対応する低周波数音を生成する、請求項4に記載のシステム。
  6. 前記サブウーファは、前記ユーザのための座席に隣接して配置される、または、前記サブウーファは、前記ユーザによって装着される、請求項5に記載のシステム。
  7. 前記シネマオーディオデータは、分岐構造内に編成され、前記修正されたシネマオーディオデータは、前記シネマオーディオデータの前記分岐構造より小さい修正された分岐構造を有する、請求項4に記載のシステム。
  8. ソースデータを提供するために、前記空間化オーディオプロセッサに動作可能に結合されるアプリケーションプロセッサをさらに備え、前記空間化オーディオプロセッサは、前記ソースデータから前記空間化オーディオデータを生成し、
    前記アプリケーションプロセッサは、前記空間化オーディオデータを前記シネマオーディオデータと同期させる、請求項1に記載のシステム。
  9. 前記フレームは、前記第1の音を前記ユーザの耳に集束させる、請求項1に記載のシステム。
  10. 前記生成された空間化オーディオデータは、複数の仮想オーディオソース毎に、位置、配向、および音量データを含む、請求項1に記載のシステム。
  11. 前記複数のスピーカは、個別の磁石を用いて、前記フレームに除去可能に取り付けられる、請求項1に記載のシステム。
JP2020192230A 2016-08-01 2020-11-19 空間化オーディオを用いた複合現実システム Active JP7118121B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022123243A JP7270820B2 (ja) 2016-08-01 2022-08-02 空間化オーディオを用いた複合現実システム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201662369561P 2016-08-01 2016-08-01
US62/369,561 2016-08-01

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019505064A Division JP6799141B2 (ja) 2016-08-01 2017-08-01 空間化オーディオを用いた複合現実システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022123243A Division JP7270820B2 (ja) 2016-08-01 2022-08-02 空間化オーディオを用いた複合現実システム

Publications (2)

Publication Number Publication Date
JP2021036722A true JP2021036722A (ja) 2021-03-04
JP7118121B2 JP7118121B2 (ja) 2022-08-15

Family

ID=61010443

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2019505064A Active JP6799141B2 (ja) 2016-08-01 2017-08-01 空間化オーディオを用いた複合現実システム
JP2020192230A Active JP7118121B2 (ja) 2016-08-01 2020-11-19 空間化オーディオを用いた複合現実システム
JP2022123243A Active JP7270820B2 (ja) 2016-08-01 2022-08-02 空間化オーディオを用いた複合現実システム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019505064A Active JP6799141B2 (ja) 2016-08-01 2017-08-01 空間化オーディオを用いた複合現実システム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022123243A Active JP7270820B2 (ja) 2016-08-01 2022-08-02 空間化オーディオを用いた複合現実システム

Country Status (9)

Country Link
US (3) US10390165B2 (ja)
EP (2) EP4376444A3 (ja)
JP (3) JP6799141B2 (ja)
KR (1) KR102197544B1 (ja)
CN (1) CN109791441A (ja)
AU (2) AU2017305249B2 (ja)
CA (1) CA3032603A1 (ja)
IL (1) IL264478B (ja)
WO (1) WO2018026828A1 (ja)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA3032603A1 (en) 2016-08-01 2018-02-08 Magic Leap, Inc. Mixed reality system with spatialized audio
US10089063B2 (en) * 2016-08-10 2018-10-02 Qualcomm Incorporated Multimedia device for processing spatialized audio based on movement
CA3078420A1 (en) 2017-10-17 2019-04-25 Magic Leap, Inc. Mixed reality spatial audio
IL276510B2 (en) 2018-02-15 2024-02-01 Magic Leap Inc Virtual reverberation in mixed reality
CA3090178A1 (en) * 2018-02-15 2019-08-22 Magic Leap, Inc. Mixed reality musical instrument
JP7102024B2 (ja) * 2018-04-10 2022-07-19 ガウディオ・ラボ・インコーポレイテッド メタデータを利用するオーディオ信号処理装置
WO2019217320A1 (en) 2018-05-08 2019-11-14 Google Llc Mixing audio based on a pose of a user
US10735884B2 (en) * 2018-06-18 2020-08-04 Magic Leap, Inc. Spatial audio for interactive audio environments
US10569164B1 (en) * 2018-09-26 2020-02-25 Valve Corporation Augmented reality (AR) system for providing AR in video games
CN113039815B (zh) * 2018-11-09 2022-11-11 候本株式会社 声音生成方法及执行其的装置
JP2022515266A (ja) 2018-12-24 2022-02-17 ディーティーエス・インコーポレイテッド 深層学習画像解析を用いた室内音響シミュレーション
US11100909B2 (en) * 2019-05-06 2021-08-24 Apple Inc. Devices, methods, and graphical user interfaces for adaptively providing audio outputs
US11445238B2 (en) * 2019-05-10 2022-09-13 Cinewav Pte. Ltd. System and method for synchronizing audio content on a mobile device to a separate visual display system
CN114424583A (zh) * 2019-09-23 2022-04-29 杜比实验室特许公司 混合近场/远场扬声器虚拟化
US11228857B2 (en) * 2019-09-28 2022-01-18 Facebook Technologies, Llc Dynamic customization of head related transfer functions for presentation of audio content
WO2021081035A1 (en) * 2019-10-22 2021-04-29 Google Llc Spatial audio for wearable devices
EP4049466A4 (en) 2019-10-25 2022-12-28 Magic Leap, Inc. REVERBER FOOTPRINT ESTIMATION
US11741159B2 (en) * 2019-10-29 2023-08-29 Shmuel Ur Innovation Ltd Digital media authentication
US11270115B2 (en) * 2019-11-18 2022-03-08 Lenovo (Singapore) Pte. Ltd. Presentation of augmented reality content based on identification of trigger accompanying video content
US11337023B2 (en) 2019-12-20 2022-05-17 Magic Leap, Inc. Physics-based audio and haptic synthesis
CN111093142B (zh) * 2019-12-24 2021-06-08 杭州当虹科技股份有限公司 一种基于vr多方向音源合成的实现方法
EP4158908A4 (en) 2020-05-29 2023-11-29 Magic Leap, Inc. SURFACE COLLISIONS
US20220385748A1 (en) * 2021-05-27 2022-12-01 Qualcomm Incorporated Conveying motion data via media packets
CN113596673B (zh) * 2021-07-14 2024-07-30 杭州泽沃电子科技有限公司 Ar眼镜扬声器的定向发声方法、装置和发声设备
CN115834757A (zh) * 2021-09-17 2023-03-21 北京小米移动软件有限公司 数据传输方法、电子设备、通信系统及可读存储介质
CN114040318A (zh) * 2021-11-02 2022-02-11 海信视像科技股份有限公司 一种空间音频的播放方法及设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0792981A (ja) * 1993-02-10 1995-04-07 Walt Disney Co:The バーチャルワールドサウンドシステムを提供するための方法及び装置
JP2012129800A (ja) * 2010-12-15 2012-07-05 Sony Corp 情報理装置および方法、プログラム、並びに情報処理システム
JP2012178748A (ja) * 2011-02-25 2012-09-13 Sony Corp ヘッドホン装置およびヘッドホン装置の音声再生方法
US20120237037A1 (en) * 2011-03-18 2012-09-20 Dolby Laboratories Licensing Corporation N Surround
US20140328485A1 (en) * 2013-05-06 2014-11-06 Nvidia Corporation Systems and methods for stereoisation and enhancement of live event audio
WO2015192117A1 (en) * 2014-06-14 2015-12-17 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR920014231A (ko) * 1990-12-31 1992-07-30 이헌조 무선헤드폰 송 수신회로
JP3796776B2 (ja) * 1995-09-28 2006-07-12 ソニー株式会社 映像音声再生装置
JP4281937B2 (ja) * 2000-02-02 2009-06-17 パナソニック株式会社 ヘッドホンシステム
FR2847376B1 (fr) 2002-11-19 2005-02-04 France Telecom Procede de traitement de donnees sonores et dispositif d'acquisition sonore mettant en oeuvre ce procede
JP2004229221A (ja) * 2003-01-27 2004-08-12 Yamaha Corp 楽音発生システム
US8201080B2 (en) * 2006-05-24 2012-06-12 International Business Machines Corporation Systems and methods for augmenting audio/visual broadcasts with annotations to assist with perception and interpretation of broadcast content
US7876903B2 (en) * 2006-07-07 2011-01-25 Harris Corporation Method and apparatus for creating a multi-dimensional communication space for use in a binaural audio system
JP4735993B2 (ja) * 2008-08-26 2011-07-27 ソニー株式会社 音声処理装置、音像定位位置調整方法、映像処理装置及び映像処理方法
JP5281695B2 (ja) * 2009-12-03 2013-09-04 独立行政法人科学技術振興機構 音響変換装置
US8908874B2 (en) 2010-09-08 2014-12-09 Dts, Inc. Spatial audio encoding and reproduction
US9727132B2 (en) * 2011-07-01 2017-08-08 Microsoft Technology Licensing, Llc Multi-visor: managing applications in augmented reality environments
US9183676B2 (en) * 2012-04-27 2015-11-10 Microsoft Technology Licensing, Llc Displaying a collision between real and virtual objects
DE102012208118A1 (de) * 2012-05-15 2013-11-21 Eberhard-Karls-Universität Tübingen Headtracking-Headset und Gerät
US9813776B2 (en) * 2012-06-25 2017-11-07 Pin Pon Llc Secondary soundtrack delivery
US9131298B2 (en) * 2012-11-28 2015-09-08 Qualcomm Incorporated Constrained dynamic amplitude panning in collaborative sound systems
US20140176591A1 (en) * 2012-12-26 2014-06-26 Georg Klein Low-latency fusing of color image data
US9940897B2 (en) * 2013-05-24 2018-04-10 Awe Company Limited Systems and methods for a shared mixed reality experience
US20150058877A1 (en) * 2013-08-21 2015-02-26 Harman International Industries, Incorporated Content-based audio/video adjustment
CN107329259B (zh) 2013-11-27 2019-10-11 奇跃公司 虚拟和增强现实系统与方法
US9285872B1 (en) * 2013-12-12 2016-03-15 Google Inc. Using head gesture and eye position to wake a head mounted device
US10203762B2 (en) * 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
DE102014204630A1 (de) * 2014-03-13 2015-09-17 Steffen Armbruster Mobile Vorrichtung für immersive Sounderlebnisse
CN106464953B (zh) * 2014-04-15 2020-03-27 克里斯·T·阿纳斯塔斯 双声道音频系统和方法
US10057706B2 (en) * 2014-11-26 2018-08-21 Sony Interactive Entertainment Inc. Information processing device, information processing system, control method, and program
CN105797366A (zh) * 2016-03-25 2016-07-27 中国传媒大学 一种基于声源定位的头戴式交互音频游戏终端
CA3032603A1 (en) 2016-08-01 2018-02-08 Magic Leap, Inc. Mixed reality system with spatialized audio

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0792981A (ja) * 1993-02-10 1995-04-07 Walt Disney Co:The バーチャルワールドサウンドシステムを提供するための方法及び装置
JP2012129800A (ja) * 2010-12-15 2012-07-05 Sony Corp 情報理装置および方法、プログラム、並びに情報処理システム
JP2012178748A (ja) * 2011-02-25 2012-09-13 Sony Corp ヘッドホン装置およびヘッドホン装置の音声再生方法
US20120237037A1 (en) * 2011-03-18 2012-09-20 Dolby Laboratories Licensing Corporation N Surround
US20140328485A1 (en) * 2013-05-06 2014-11-06 Nvidia Corporation Systems and methods for stereoisation and enhancement of live event audio
WO2015192117A1 (en) * 2014-06-14 2015-12-17 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality

Also Published As

Publication number Publication date
WO2018026828A1 (en) 2018-02-08
AU2017305249A1 (en) 2019-02-07
IL264478B (en) 2021-02-28
EP4376444A2 (en) 2024-05-29
US20190327574A1 (en) 2019-10-24
EP3491495A1 (en) 2019-06-05
CN109791441A (zh) 2019-05-21
EP3491495A4 (en) 2019-07-24
JP7118121B2 (ja) 2022-08-15
NZ750048A (en) 2023-08-25
US10390165B2 (en) 2019-08-20
US11240622B2 (en) 2022-02-01
JP2019523607A (ja) 2019-08-22
JP2022166062A (ja) 2022-11-01
AU2017305249B2 (en) 2021-07-22
EP4376444A3 (en) 2024-08-21
AU2021250896A1 (en) 2021-11-11
US10856095B2 (en) 2020-12-01
EP3491495B1 (en) 2024-04-10
US20210044915A1 (en) 2021-02-11
US20180035234A1 (en) 2018-02-01
IL264478A (en) 2019-02-28
JP7270820B2 (ja) 2023-05-10
JP6799141B2 (ja) 2020-12-09
CA3032603A1 (en) 2018-02-08
AU2021250896B2 (en) 2023-09-14
KR20190027934A (ko) 2019-03-15
KR102197544B1 (ko) 2020-12-31

Similar Documents

Publication Publication Date Title
JP6799141B2 (ja) 空間化オーディオを用いた複合現実システム
US11310618B2 (en) Virtual reality, augmented reality, and mixed reality systems with spatialized audio
US20220225050A1 (en) Head tracked spatial audio and/or video rendering
NZ750048B2 (en) Mixed reality system with spatialized audio

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220706

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220802

R150 Certificate of patent or registration of utility model

Ref document number: 7118121

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150