JP6741873B2 - バーチャルリアリティ分野における装置および関連する方法 - Google Patents

バーチャルリアリティ分野における装置および関連する方法 Download PDF

Info

Publication number
JP6741873B2
JP6741873B2 JP2019535798A JP2019535798A JP6741873B2 JP 6741873 B2 JP6741873 B2 JP 6741873B2 JP 2019535798 A JP2019535798 A JP 2019535798A JP 2019535798 A JP2019535798 A JP 2019535798A JP 6741873 B2 JP6741873 B2 JP 6741873B2
Authority
JP
Japan
Prior art keywords
audio
virtual
location
spatial
spatial audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019535798A
Other languages
English (en)
Other versions
JP2020504384A (ja
Inventor
アンッティ エロネン
アンッティ エロネン
アルト レフティニエミ
アルト レフティニエミ
ユッシ レッパネン
ユッシ レッパネン
ユハ アーラスヴオリ
ユハ アーラスヴオリ
Original Assignee
ノキア テクノロジーズ オーユー
ノキア テクノロジーズ オーユー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ノキア テクノロジーズ オーユー, ノキア テクノロジーズ オーユー filed Critical ノキア テクノロジーズ オーユー
Publication of JP2020504384A publication Critical patent/JP2020504384A/ja
Application granted granted Critical
Publication of JP6741873B2 publication Critical patent/JP6741873B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/80Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using ultrasonic, sonic or infrasonic waves
    • G01S3/802Systems for determining direction or deviation from predetermined direction
    • G01S3/808Systems for determining direction or deviation from predetermined direction using transducers spaced apart and measuring phase or time difference between signals therefrom, i.e. path-difference systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/18Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
    • G01S5/22Position of source determined by co-ordinating a plurality of position lines defined by path-difference measurements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2201/00Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
    • H04R2201/40Details of arrangements for obtaining desired directional characteristic by combining a number of identical transducers covered by H04R1/40 but not provided for in any of its subgroups
    • H04R2201/4012D or 3D arrays of transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/12Circuits for transducers, loudspeakers or microphones for distributing signals to two or more loudspeakers

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Stereophonic System (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本開示はバーチャルリアリティ分野に関する。関連する方法、コンピュータプログラム、および装置も開示される。開示される特定の態様/例は携帯電子デバイスに関する。
背景
ユーザに提示されるビジュアルコンテンツに対応するように、空間オーディオ表現が特定の方向から生じているように知覚されることが重要である場合がある。
本明細書における公開済み文献または背景の列挙や議論は、こうした文献や背景が当該技術分野の最新状況の一部であること、または一般知識であることとして必ずしも理解されなくてもよい。本開示の1つ以上の態様/例は、背景にある1つ以上の課題を解決してもよく、そうでなくてもよい。
摘要
第1の例示的態様において、装置が提供される。前記装置は、
少なくとも1つのプロセッサと、
コンピュータプログラムコードを含む少なくとも1つのメモリと、を備え、
前記少なくとも1つのメモリおよび前記コンピュータプログラムコードは、前記少なくとも1つのプロセッサによって、少なくとも
バーチャルリアリティ視聴用のバーチャルリアリティ空間においてユーザに提示するシーンをキャプチャしたバーチャルリアリティコンテンツに関し、前記バーチャルリアリティコンテンツは、前記シーン内のオーディオキャプチャ場所に配置された少なくとも1つのオーディオキャプチャデバイスによってキャプチャされた空間オーディオを含み、前記空間オーディオは、前記オーディオキャプチャ場所から前記オーディオの1つ以上の音の音源への1つ以上の方向を定める方向情報を含む、前記シーンからのオーディオを含み、
前記シーン内の前記オーディオキャプチャ場所に対応する前記バーチャルリアリティ空間内の仮想オーディオキャプチャ場所に対する、前記バーチャルリアリティ空間内のユーザの仮想場所に基づき、
前記仮想場所が前記仮想オーディオキャプチャ場所から閾値距離内である場合、前記方向情報に対応する前記バーチャルリアリティ空間内の1つ以上の方向から前記1つ以上の音が生じていると知覚されるような空間オーディオ効果によって、前記空間オーディオの可聴提示を行うことと、
前記仮想場所が前記仮想オーディオキャプチャ場所から前記閾値距離外である場合、前記空間オーディオ効果なしで、かつ、前記音が特定の発生方向なしで知覚されるような周囲オーディオ効果によって、前記1つ以上の音の少なくともサブセットが可聴提示されるように、前記空間オーディオの可聴提示を行うことと、
を前記装置に実行させるように構成される。
1つ以上の実施形態において、前記周囲オーディオ効果は、前記ユーザ周囲の全方向と、複数の方向とのいずれかから、前記空間オーディオの前記1つ以上の音が生じていると知覚されるように、前記1つ以上の音を可聴提示するように構成される。1つ以上の例において、前記周囲オーディオ効果による前記空間オーディオは、波及的な背景オーディオとして知覚されるように提示される。
1つ以上の実施形態において、前記バーチャルリアリティ(Virtual Reality:VR)コンテンツは、前記シーン内の特定の音源からのオーディオを含む個別オーディオを含み、前記空間オーディオも、前記シーン内の同じ特定の音源からのオーディオを少なくとも部分的に含み、前記装置は、前記仮想場所が前記閾値距離内である場合に対して前記仮想場所が前記閾値距離外である場合、前記空間オーディオより大きいボリュームで前記個別オーディオの可聴提示を実行させられる。
1つ以上の実施形態において、前記個別オーディオは、前記シーン内の前記特定の音源の場所を定める特定音源場所情報に関連付けられ、前記特定音源場所情報と、前記ユーザの現在の視方向と、前記仮想場所とに基づいて、前記個別オーディオは、前記特定音源場所情報に対応する前記バーチャルリアリティ空間内の一方向から前記オーディオが生じていると知覚されるように、前記オーディオを前記バーチャルリアリティ空間内に配置するように構成された前記空間オーディオ効果によって可聴提示用に提供される。
1つ以上の実施形態において、前記閾値距離は、バーチャルリアリティ空間の領域を含む遷移領域を定め、前記遷移領域内では、前記空間オーディオ効果による可聴提示用に提供される空間オーディオと、前記周囲オーディオ効果による可聴提示用に提供される前記空間オーディオとの割合が、前記仮想オーディオキャプチャ場所からの距離の関数として変化する。
1つ以上の実施形態において、前記空間オーディオ効果による可聴提示用に提供される前記空間オーディオに適用されるゲインは、前記仮想オーディオキャプチャ場所からのユーザの前記仮想場所の距離が増加するにつれて減少する。
1つ以上の実施形態において、前記周囲オーディオ効果による可聴提示用に提供される前記空間オーディオに適用されるゲインは、前記仮想オーディオキャプチャ場所からのユーザの前記仮想場所の距離が増加するにつれて増大する。
1つ以上の実施形態において、前記空間オーディオ効果は、前記空間オーディオを可聴提示するために、頭部伝達関数とベクトルベース振幅パンニングのいずれかを用いる。
1つ以上の実施形態において、前記装置は、前記仮想場所が前記仮想オーディオキャプチャ場所から前記閾値距離外である場合、前記空間オーディオキャプチャデバイスによってキャプチャされた前記1つ以上の音すべてが
i)前記空間オーディオ効果なしで、かつ
ii)前記音が特定の発生方向なしで知覚されるような周囲オーディオ効果によって
可聴提示されるように、前記空間オーディオの可聴提示を実行させられる。
1つ以上の実施形態において、前記仮想場所が前記仮想オーディオキャプチャ場所から前記閾値距離外であるときに、前記オーディオの前記サブセット以外の前記1つ以上の音の前記方向情報が、前記ユーザの前記仮想場所および仮想オーディオキャプチャ場所から延びる方向の方向閾値内の一方向を示している場合、前記装置は、前記1つ以上の音の可聴提示を前記空間オーディオ効果によって実行させられる。
したがって、1つ以上の例において、前記空間オーディオ効果は、前記ユーザの前記仮想場所に対して前記仮想オーディオキャプチャ場所の反対側の場所(前述の閾値によって定められる)から生じる音にも用いることができる。これは、それらの音源へと向かう方向は、前記ユーザの仮想場所において依然として有効であるからである。しかしながら、それ以外の方向からの音は、前記VRコンテンツ内の前記音源の視覚的場所に正しく対応しない場合があるため、そのような音には前記周囲オーディオ効果が用いられる。
第2の例示的態様において、方法が提供される。前記方法は、
バーチャルリアリティ視聴用のバーチャルリアリティ空間においてユーザに提示するシーンをキャプチャしたバーチャルリアリティコンテンツに関し、前記バーチャルリアリティコンテンツは、前記シーン内のオーディオキャプチャ場所に配置された少なくとも1つのオーディオキャプチャデバイスによってキャプチャされた空間オーディオを含み、前記空間オーディオは、前記オーディオキャプチャ場所から前記オーディオの1つ以上の音の音源への1つ以上の方向を定める方向情報を含む、前記シーンからのオーディオを含み、
前記シーン内の前記オーディオキャプチャ場所に対応する前記バーチャルリアリティ空間内の仮想オーディオキャプチャ場所に対する、前記バーチャルリアリティ空間内のユーザの仮想場所に基づき、
前記仮想場所が前記仮想オーディオキャプチャ場所から閾値距離内である場合、前記方向情報に対応する前記バーチャルリアリティ空間内の1つ以上の方向から前記1つ以上の音が生じていると知覚されるような空間オーディオ効果によって、前記空間オーディオの可聴提示を行うことと、
前記仮想場所が前記仮想オーディオキャプチャ場所から前記閾値距離外である場合、前記空間オーディオ効果なしで、かつ、前記音が特定の発生方向なしで知覚されるような周囲オーディオ効果によって、前記1つ以上の音の少なくともサブセットが可聴提示されるように、前記空間オーディオの可聴提示を行うことと、を含む。
第3の例示的態様において、コンピュータ可読媒体が提供される。前記コンピュータ可読媒体は、コンピュータプログラムコードを格納し、前記コンピュータ可読媒体および前記コンピュータプログラムコードは、少なくとも1つのプロセッサ上で実行されると、
バーチャルリアリティ視聴用のバーチャルリアリティ空間においてユーザに提示するシーンをキャプチャしたバーチャルリアリティコンテンツに関し、前記バーチャルリアリティコンテンツは、前記シーン内のオーディオキャプチャ場所に配置された少なくとも1つのオーディオキャプチャデバイスによってキャプチャされた空間オーディオを含み、前記空間オーディオは、前記オーディオキャプチャ場所から前記オーディオの1つ以上の音の音源への1つ以上の方向を定める方向情報を含む、前記シーンからのオーディオを含み、
前記シーン内の前記オーディオキャプチャ場所に対応する前記バーチャルリアリティ空間内の仮想オーディオキャプチャ場所に対する、前記バーチャルリアリティ空間内のユーザの仮想場所に基づき、
前記仮想場所が前記仮想オーディオキャプチャ場所から閾値距離内である場合、前記方向情報に対応する前記バーチャルリアリティ空間内の1つ以上の方向から前記1つ以上の音が生じていると知覚されるような空間オーディオ効果によって、前記空間オーディオの可聴提示を行うことと、
前記仮想場所が前記仮想オーディオキャプチャ場所の前記閾値距離外である場合、前記空間オーディオ効果なしで、かつ、前記音が特定の発生方向なしで知覚されるような周囲オーディオ効果によって、前記1つ以上の音の少なくともサブセットが可聴提示されるように、前記空間オーディオの可聴提示を行うことと、
を含む方法を実行するように構成される。
さらなる態様において、装置が提供される。前記装置は、
バーチャルリアリティ視聴用のバーチャルリアリティ空間においてユーザに提示するシーンをキャプチャしたバーチャルリアリティコンテンツに関し、前記バーチャルリアリティコンテンツは、前記シーン内のオーディオキャプチャ場所に配置された少なくとも1つのオーディオキャプチャデバイスによってキャプチャされた空間オーディオを含み、前記空間オーディオは、前記オーディオキャプチャ場所から前記オーディオの1つ以上の音源への1つ以上の方向を定める方向情報を含む、前記シーンからのオーディオを含み、
前記シーン内の前記オーディオキャプチャ場所に対応する前記バーチャルリアリティ空間内の仮想オーディオキャプチャ場所に対する、前記バーチャルリアリティ空間内のユーザの仮想場所に基づき、
前記仮想場所が前記仮想オーディオキャプチャ場所から閾値距離内である場合、前記方向情報に対応する前記バーチャルリアリティ空間内の1つ以上の方向から前記1つ以上の音が生じていると知覚されるような空間オーディオ効果によって、前記空間オーディオの可聴提示を行い、
前記仮想場所が前記仮想オーディオキャプチャ場所から前記閾値距離外である場合、前記空間オーディオ効果なしで、かつ、前記音が特定の発生方向なしで知覚されるような周囲オーディオ効果によって、前記1つ以上の音の少なくともサブセットが可聴提示されるように、前記空間オーディオの可聴提示を行う
ように構成された手段を備える。
本開示は、1つ以上の対応する態様、例、または特徴を個別に、または様々な組合せで含んでいる。こうした事項は、その組合せや個別で具体的に(特許請求の範囲を含めて)記載されているかどうかを問わない。記載された機能の1つ以上を実行する対応する手段および機能ユニット(例えば、機能実現部、視点特定部、表示デバイス、オーディオレンダラ)もまた、本開示の範囲内である。
開示される方法の1つ以上を実行するための対応するコンピュータプログラムもまた本開示の範囲内であり、記載された1つ以上の例に含まれる。
前述の摘要は、単なる例示かつ非限定的事項であることが意図されている。
以下の添付図面を参照して、単なる一例として説明を行う。
図1は、装置の例示的実施形態を示す図である。 図2は、VRコンテンツがキャプチャされる例示的実世界シーンをオーディオキャプチャデバイスを含めて示す図である。 図3は、オーディオ源とユーザの仮想場所とを表現している、図2のシーンに基づく例示的バーチャルリアリティ空間を示す図である。 図4は、VRコンテンツがキャプチャされる別の例示的実世界シーンをオーディオキャプチャデバイスと2つのオーディオ源とを含めて示す図である。 図5は、オーディオ源の仮想表現と、閾値距離に対するユーザの仮想場所とを示し、装置の機能を説明している、図4のシーンに基づく例示的バーチャルリアリティ空間を示す図である。 図6は、装置の例示的実施形態を示すブロック図である。 図7は、例示的方法を示すフローチャートである。 図8は、コンピュータ可読媒体を示す図である。
例示的態様の説明
バーチャルリアリティ(Virtual Reality:VR)では、眼鏡、ゴーグル、仮想網膜ディスプレイなどのヘッドセットを備えるVRディスプレイや、ユーザを取り囲んでユーザに没入的仮想体験を提供する1つ以上のディスプレイスクリーンを用いることができる。VRディスプレイを用いるバーチャルリアリティ装置は、シーンを表現するマルチメディアVRコンテンツをユーザに提示して、ユーザがそのシーン内に仮想的に存在するようにシミュレートすることができる。バーチャルリアリティシーンは、実世界シーンを複製して、ユーザが実世界の場所に物理的に存在するようにシミュレートしても、コンピュータにより生成されても、コンピュータ生成されたコンテンツと撮像された実世界マルチメディアコンテンツの組合せであってもよい。バーチャルリアリティシーンは、広い視野、あるいは360°の視野(またはそれより広い、水平方向の視野より上および/または下など)を有するビデオを含む、パノラマビデオ(パノラマの生放送や事前に録画されたコンテンツなど)により提供されてもよい。ユーザにはそのシーンのVRビューが提示されてもよく、VRディスプレイ(すなわちヘッドセット)の移動などによって、VRビューを動かしてVRコンテンツでそのシーンを見回してもよい。このように、バーチャルリアリティコンテンツが表示される三次元バーチャルリアリティ空間であって、ユーザがそのVR空間内を見回すことができ、任意で、例えば移動により探索することができる、三次元バーチャルリアリティ空間が提供されうる。
ユーザに提供されるVRコンテンツは、例えばVRコンテンツキャプチャデバイスによってキャプチャされた実世界のライブ画像または記録された画像を含んでもよい。VRコンテンツキャプチャデバイスは、1人以上のユーザに表示するVRコンテンツをキャプチャするように構成されてもよい。VRコンテンツキャプチャデバイスは、周囲の視聴覚シーンを一視点からキャプチャするように構成された1つ以上のカメラおよび1つ以上の(例えば、指向性および/またはアンビエント)マイクロフォンを備えてもよい。例示的なVRコンテンツキャプチャデバイスとして、Nokia Technologies OyのNokia OZOカメラが挙げられる。したがって、VRコンテンツキャプチャデバイス(ステージ上に配置されてもよい)によって、演奏者達がデバイスの周りを動いている状態で、または観客の視点から、音楽演奏をキャプチャ(および記録)してもよい。いずれの場合も、VRコンテンツの消費者は、VR装置のVRディスプレイを用いて周囲を見回し、消費者がまるでその場にいるようにキャプチャ場所の視点でパフォーマンスを体験することが可能になりうる。
VRシーンは通常、任意の一時点にVRディスプレイに提示されるVRビューでユーザが見ることができる部分よりも空間的に大きいため、VR装置はユーザの頭部や眼の動きに基づいて、VRシーン内のVRビューをパンさせることができる。例えば、VRディスプレイの水平面における視野が約120°であっても、VRコンテンツは360°ビデオ映像を提供することができる。したがって、VRディスプレイによって提供されるVRビューの視野は、VRコンテンツの合計空間範囲より小さくてもよい。
1つ以上の例において、VRコンテンツは、VRシーンを見回すためにユーザがVRビューの視方向を変えることができるが、ユーザの視点の場所はユーザが制御できず、そのシーンをキャプチャしたときのVRコンテンツキャプチャデバイスの場所における視点に依存するようなものであってもよい。1つ以上の例において、場合によっては「自由視点」VRと呼ばれるように、ユーザはVR空間を探索することができる。探索可能なVR空間は、三次元モデルからのレンダリングのようにコンピュータで生成されても、1つ以上のVRコンテンツキャプチャデバイスからのシーンの視覚映像から生成されても、またはそれらの組合せであってもよい。したがって、自由視点VRコンテンツは、VR空間内におけるユーザの視点の場所およびユーザのVRビューの視方向をユーザが自由に制御して、VR空間を見回すことができるようなものであってもよい。シーン内のVRコンテンツがキャプチャされた場所に対応するVR空間内の仮想場所にユーザがいる場合、そのユーザに、そのコンテンツキャプチャデバイスからのVRコンテンツが提供されてもよい。ユーザがそのVRコンテンツキャプチャデバイスの場所から仮想的に離れると、VR装置は、別の場所にある別のVRコンテンツキャプチャデバイスからのVRコンテンツの表示、または複数のコンテンツキャプチャデバイスからの映像の組合せの表示を提供して、ユーザが現在の仮想場所で見るであろうビューをシミュレートしてもよい。シーン内の1つ以上のVRコンテンツキャプチャ場所においてキャプチャされたVRコンテンツに基づいて、バーチャルリアリティ空間内の一点においてユーザが受信することができるビューをシミュレートする技術は多様であることを理解されるであろう。これらの技術には、異なる場所にあるVRコンテンツキャプチャデバイスからのVRコンテンツを用いること、異なる場所にあるVRコンテンツキャプチャデバイスからの映像の組合せを用いること、異なる場所にある1つ以上のVRコンテンツキャプチャデバイスからの視覚映像を補間すること、シーンのコンピュータモデルを用いてVRコンテンツキャプチャデバイス間の視点の場所をシミュレートすることが含まれる。
バーチャルリアリティコンテンツは、VR空間内の一点から生じていると知覚されるような方向性を有する空間オーディオを含んでもよい。この方向性は、VRコンテンツの映像にリンクされてもよい。このオーディオの空間配置は、マルチチャネルオーディオ構成の各チャネルにオーディオが提示される程度により、および、3Dオーディオ効果によって、行ってもよい。3Dオーディオ効果は、頭部伝達関数(Head Related Transfer Function:HRTF)またはベクトルベース振幅パンニング(Vector-Base Amplitude Panning:VBAP)を用いて、ユーザへの提示用にオーディオを配置できる空間オーディオ空間すなわち「聴覚シーン」を作成するようなものを含む。
装置100は、VRコンテンツをユーザに提示するVR装置101の一部であるか、VR装置101と通信してもよい。格納装置102は、格納媒体に格納されているVRコンテンツ、または、VRコンテンツがVR装置101によってキャプチャされ受信された際にデータ伝送バス上に一時的に存在するVRコンテンツを表している。VRコンテンツは、少なくとも1つのVRコンテンツキャプチャデバイスによってキャプチャされてもよく、ライブであっても記録されたものであってもよい。ユーザは、VRコンテンツを見るために、VRヘッドセット103または他のVRディスプレイを用いてもよい。VRディスプレイ103、またはより一般的にVR装置101は、空間オーディオと、発生方向が知覚されない周囲オーディオとを表現するために、ヘッドフォン104あるいは他のマルチチャネル音生成構成に関連付けられてもよい。別の実施形態において、VR装置101は装置100から遠隔であってもよく、インターネットなどのネットワークを介して接続されてもよい。VR装置101は格納装置102の一部であってもよく、1つ以上の例において、VRコンテンツをVRディスプレイ103およびヘッドフォン104に伝送してもよい。別の実施形態において、VR装置101はVRディスプレイ103および/またはヘッドフォン104と一体化されていてもよく、したがって装置100はそれらと一体化されていても、遠隔であってVR装置101と通信していてもよい。
本実施形態において、前述の装置100は、1つのプロセッサ101Aおよび1つのメモリ101Bのみを備えるか、それらに接続されてもよいが、別の実施形態では、2つ以上のプロセッサおよび/または2つ以上のメモリ(例えば、同じまたは異なるタイプのプロセッサ/メモリ)を用いてもよいことを理解されるであろう。また、装置100は、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)であってもよい。装置100は、VR装置101とは別個であってVR装置101と通信しているか、または図1に示すようにVR装置101と一体化されていてもよい。装置100およびVR装置101は、プロセッサ101Aおよび/またはメモリ101Bを共有してもよく、個別のプロセッサおよび/またはメモリを備えてもよい。
プロセッサ101Aは、コンピュータプログラムコードの形式でメモリに格納された命令に従い、VR装置101や装置100などの他の構成要素から受信された情報の実行/処理を専門に行う汎用プロセッサであってもよい。プロセッサのそのような動作によって生成される出力シグナリングは、以下に詳述する必要な映像を表示するためにVR装置101などのさらなる構成要素へと提供される。
メモリ101B(単一のメモリユニットである必要はない)は、コンピュータプログラムコードを格納するコンピュータ可読媒体(この例ではソリッドステートメモリであるが、ハードドライブ、ROM、RAM、フラッシュなどの他のタイプのメモリであってもよい)である。このコンピュータプログラムコードは、プロセッサで実行されたときにプロセッサによって実行可能な命令を格納している。メモリとプロセッサ間の内部接続は、1つ以上の例示的実施形態において、メモリに格納されたコンピュータプログラムコードにプロセッサがアクセスできるようにするための、プロセッサとメモリ間のアクティブな接続を提供するものとして理解することができる。
この例において、プロセッサ101Aおよびメモリ101Bは内部で互いに電気的に接続されて、各構成要素間の電気通信を可能にしている。この例において、構成要素は共にASICを形成するように、換言すれば、電子デバイスに取付け可能な単一のチップ/回路として一体化されるように、すべて互いに近接して配置される。別の例では、構成要素の1つ以上またはすべてが互いに個別に配置されてもよい。
図2および図3は、特に自由視点バーチャルリアリティにおける、空間オーディオ提示の潜在的な問題を示している。
図2は、実世界シーン200の平面図を示している。シーン200はオーディオキャプチャデバイス201を含んでいる。このデバイスはNokia OZO VRカメラであってもよい。オーディオキャプチャデバイス201は、この例において、シーン200のVR視覚映像もキャプチャし、この目的で異なる方向を指す複数のカメラ202を備える。このように、オーディオキャプチャデバイス201、より一般的にVRカメラ201は、シーンのVRコンテンツをキャプチャする。オーディオキャプチャデバイス201は、シーン内のオーディオキャプチャ場所203に物理的に配置されている。オーディオキャプチャ場所203は、シーンの音がキャプチャされる、シーン200の「リスニング」場所である。
シーン200は演奏家204も含む。演奏家204は、オーディオキャプチャデバイス201がキャプチャするオーディオの発生源である。オーディオキャプチャデバイス201によってキャプチャされた空間オーディオは、演奏家204によって作り出された音の方向205を識別する情報を含む。このように、VRカメラ201によって生成されたVRコンテンツは、演奏家204の音がシーン200内の方向205からキャプチャされたことを示す方向情報を含む。別の例において、オーディオキャプチャデバイス201はVRカメラの一部でなくてもよく、シーン200内のVRカメラと物理的に別個および/または異なる位置に配置されてもよいことを理解されるであろう。オーディオキャプチャデバイス201は、複数の方向フォーカスマイクロフォンを含むマイクロフォン配列を備えてもよい。オーディオキャプチャデバイス201は、シーン200内のオーディオキャプチャデバイスおよび1つ以上のオーディオ源の場所情報のキャプチャを提供または支援するために、シーン内のオーディオキャプチャデバイスおよび音源に関連付けられたタグの位置を検出する測位システムに関連付けられてもよい。
シーンは、それぞれから音が発生する1つ以上のオーディオ源を含んでもよく、したがって空間オーディオは、オーディオキャプチャ場所203から1つ以上の音の1つ以上の音源への1つ以上の方向を定める方向情報を含む、シーンからのオーディオを含んでもよいことを理解されるであろう。
図3は、シーン200の実世界空間を表現する仮想三次元環境を含むバーチャルリアリティ空間300を示している。VRコンテンツは、VRコンテンツの視覚映像が視聴用に提示されるようにバーチャルリアリティ空間300に提示される。これにおいて、演奏家204の映像304は他の背景視覚映像(単純にするために図示しない)と共に示される。
VR装置101によって提供されるVR空間およびVR映像は、この例において自由視点VRであるため、ユーザは、VR空間300におけるユーザの視方向ならびにユーザの視点の場所を変更してもよい。ユーザの視点の場所は、ユーザ306の平面図によって示されている。ユーザ306は、空間内でユーザが見ている場所に応じてVR空間300のVRビューを表示するVRディスプレイヘッドセット103と、空間オーディオ(および周囲オーディオ)をユーザ306に提示するヘッドフォン104とを装着している。
図3は、VR空間300内のユーザ306を2つの異なる視点場所、すなわち「視聴位置」303、307に示している。第1視聴位置303では、ユーザ306は、オーディオキャプチャ場所203に対応するVR空間300内の仮想場所、すなわち演奏家204の映像304の前、からVRコンテンツを見ている。したがって、図2と図3を比較すると、視聴位置303はオーディオキャプチャ場所203と実質的に同じであることが理解されるであろう。ユーザ306に提示される空間オーディオでは、方向情報に基づいて、演奏家204の音が、VR空間300における演奏家の視覚映像304の場所に対応する方向305から聞こえるように適切に提供される。
第2視聴位置307では、ユーザに提示される空間オーディオは、方向情報に従って提供され続けるとすれば方向308から聞こえるが、方向308は、第2視聴位置307から演奏家204の映像304への方向に対応しておらず、不適切である。オーディオキャプチャ場所203に対応するVR空間300内の場所303からユーザが仮想的に離れると、「聴覚シーン」が第2視聴位置307におけるVR視覚映像に対応しなくなるため、混乱が生じる場合がある。
図4および図5は、装置が動作しうる構成例を示している。
図4は図2と同様の実世界シーンを示しており、同じ参照符号を用いている。ただし、図4ではシーン400内に歌手404が追加されている。歌手404は、オーディオキャプチャデバイス201が方向情報と共にキャプチャする音の発生源である。図4において、演奏家204は小型マイクロフォン410も身に着けている。マイクロフォン410は演奏家204に物理的に取り付けられるか、または演奏家204を追跡するように構成されることによって演奏家204に関連付けられているため、演奏家204の個別オーディオをキャプチャするとみなしてもよい。シーン400内の音は波及的でありうるため、小型マイクロフォン410はシーン400内の他のオーディオ源からの音をキャプチャする可能性があるが、基本的には、演奏家204からのオーディオをキャプチャするとみなされることを理解されるであろう。
したがって、この例において、シーンからキャプチャされたVRコンテンツは、空間オーディオキャプチャデバイス201によってオーディオキャプチャ場所203からキャプチャされた空間オーディオを含んでもよい。この空間オーディオは、方向情報を有する演奏家204からの音と、方向情報を有する歌手404からの音とを含む。VRコンテンツは、小型マイクロフォン410によってキャプチャされた演奏家204からの個別オーディオをさらに含んでもよい。
図2および図3について上述したのと同様に、図5は、図4の実世界シーン400を表現するバーチャルリアリティ空間500を示している。したがって、演奏家204の映像304および歌手404の映像504が表示用に提供されている。オーディオキャプチャ場所203に対応するVR空間500内の場所は「仮想オーディオキャプチャ場所」513と呼ばれ、破線で示すオーディオキャプチャデバイス201によって示されている。図5は、VR空間500内のユーザ306を2つの異なる視点場所、すなわち「視聴位置」に示している。第1視聴位置503では、ユーザ306は閾値仮想距離511内で、VR空間500内の仮想場所からVRコンテンツを見ている。閾値仮想距離511は、オーディオキャプチャ場所203に対応する仮想オーディオキャプチャ場所周囲の領域を画定する破線の円512によって示されている。第2視聴位置507では、ユーザ306は閾値仮想距離511外で、VR空間500内の仮想場所からVRコンテンツを見ている。
この例において、装置100は、シーン400内のオーディオキャプチャ場所203に対応するバーチャルリアリティ空間内の仮想オーディオキャプチャ場所513を基準とした、バーチャルリアリティ空間500内のユーザ306の仮想場所503、507に基づいて異なる方法で、空間オーディオの可聴提示を実行させられる。
具体的には、装置100は、仮想場所503が仮想オーディオキャプチャ場所513から閾値距離内である場合、オーディオキャプチャデバイス201からの空間オーディオを空間オーディオ効果によって可聴提示するように構成される。空間オーディオ効果は、方向情報に対応する、バーチャルリアリティ空間500内の1つ以上の方向から(演奏家204および歌手404からの)1つ以上の音が生じていると知覚されるような効果である。したがって、ユーザの仮想場所503が仮想オーディオキャプチャ場所に近い(閾値内である)場合、その空間オーディオは、方向情報を用いて、音の方向が演奏家の映像304および歌手の映像504の場所に対応しているように知覚されるような空間オーディオとして可聴提示される。
仮想場所507が仮想オーディオキャプチャ場所513から閾値距離511外である場合、装置100は、空間オーディオ効果なしで、かつ、周囲オーディオ効果によって1つ以上の音の少なくともサブセットが可聴提示されるように、空間オーディオの可聴提示を行うように構成される。周囲オーディオ効果は、音が特定の発生方向なしで知覚されるような効果である。したがって、ユーザの仮想場所507が仮想オーディオキャプチャ場所から離れている(閾値外である)場合、空間オーディオを構成する音の少なくとも一部が空間オーディオではなく周囲オーディオとして可聴提示される。したがって、空間オーディオのオーディオコンテンツは用いられるが、それに関連付けられた方向情報は少なくとも部分的に無視される。
したがって、ユーザが自由にバーチャルリアリティ空間を探索する1つ以上の例において、ユーザが聞く聴覚シーンは、ユーザの仮想場所503、507からユーザに提示される視覚的な仮想シーンと一貫していることが望ましい。VRコンテンツは、シーン内のあらゆる可能な場所にマイクロフォンまたは他のオーディオキャプチャデバイスを備えていない場合があるため、オーディオが特定のオーディオキャプチャ場所からの空間オーディオを含む場合は特に、聴覚シーンのレンダリングが難しいことがある。特定のオーディオキャプチャデバイスからの空間オーディオの提示は、ユーザがオーディオキャプチャ場所に仮想的に近い場合は方向情報が空間オーディオ効果によってレンダリングされ、ユーザがオーディオキャプチャ場所から仮想的に遠い場合は周囲オーディオ効果によってレンダリングされると、有効でありうる。これによって、ユーザの仮想場所によって、空間オーディオに関連付けられた方向情報の利用が不適切になる場合でも、その空間オーディオを使用できる場合がある。ユーザの仮想場所、仮想オーディオキャプチャ場所、仮想オーディオキャプチャ場所とユーザの場所との間の距離、の1つ以上は、VR装置101によって報告されても、VR装置100によって計算されてもよい。仮想オーディオキャプチャ場所は、VRコンテンツに関連付けられた情報から特定されてもよい。
したがって、仮想場所503では、ユーザには、オーディオキャプチャデバイス201によってキャプチャされた演奏家204の音が空間オーディオとして、すなわち空間オーディオ効果によって、映像304に従ってユーザ306の前から音が生じていると知覚されるように可聴提示されてもよい。個別オーディオマイクロフォン410からのオーディオは、可聴提示され、空間オーディオと第1の割合でミキシングされてもよい。ユーザ306には、オーディオキャプチャデバイス201によってキャプチャされた歌手404の音が空間オーディオとして、すなわち空間オーディオ効果によって、映像504に従ってユーザの左側約45°から音が生じていると知覚されるように可聴提示されてもよい。
仮想場所507では、ユーザには、オーディオキャプチャデバイス201によって空間オーディオとしてキャプチャされた演奏家204の音が周囲オーディオとして、すなわち周囲オーディオ効果によって、音が特定の方向から生じていると知覚されるのではなく、周囲すなわち「全方向オーディオ」として知覚されるように可聴提示されてもよい。個別オーディオマイクロフォン410からのオーディオは、可聴提示され、周囲オーディオとして可聴提示された空間オーディオと、第1の割合と異なる第2の割合でミキシングされてもよい。ユーザ306には、オーディオキャプチャデバイス201によってキャプチャされた歌手404の音が周囲オーディオとして、すなわち周囲オーディオ効果によって、音が特定の方向から生じていると知覚されるのではなく、周囲すなわち全方向オーディオとして知覚されるように可聴提示されてもよい。
空間オーディオ効果では、シーン400内のオーディオ源204、404の方向に対応するVR空間500内の個別の方向から音が生じていると知覚されるように空間オーディオを可聴提示するために、頭部伝達関数(HRTF)とベクトルベース振幅パンニング(VBAP)のいずれかを用いて空間オーディオの可聴提示を実行してもよい。空間オーディオは、他の方法で、および異なる技術を用いて、ユーザへの可聴提示用にレンダリングされてもよい。空間オーディオ効果の例としてHRTFとVBAPを挙げたが、空間オーディオ効果は、空間オーディオが意図されたように聞こえるように、すなわち指向性のある音によって、レンダリングする任意の技術を含むとみなしてもよい。
周囲オーディオ効果は、空間オーディオの1つ以上の音がユーザ周囲の全方向から生じている、または、一部の例において、空間オーディオ効果よりも広い範囲の方向から生じていると知覚されるように、それらの音を可聴提示するように構成されてもよい。したがって、空間オーディオのオーディオコンテンツは用いられるが、方向情報に従って音の指向性を提示するために頭部伝達関数またはベクトルベース振幅パンニングを用いてなくてもよい。
一例示的実装において、空間オーディオキャプチャデバイスは複数のマイクロフォンを備えてもよく、したがってマルチマイクロフォン信号をキャプチャしてもよい。空間オーディオキャプチャデバイスによってキャプチャされたマルチマイクロフォン信号は、直接音、すなわち、音源からリスナーに直接届く音を表す1つ以上の信号を特定するために分析されてもよい。同様に、空間オーディオキャプチャデバイスによってキャプチャされたマルチマイクロフォン信号は、周囲音または残響音、すなわち、明らかな到着方向がない音(周囲音)、または壁を通した反響か一般的な残響である音を表す1つ以上の信号を特定するために分析されてもよい。指向性空間オーディオの提示には、直接音を表す1つ以上の信号を、例えば、HRTFレンダリングまたはVBAPを含む空間オーディオ効果によってレンダリングすることが含まれてもよい。空間オーディオの周囲音の提示には、周囲音を表す1つ以上の信号を、HRTFレンダリングまたはVBAPによらない可聴提示である周囲オーディオ効果によってレンダリングすることが含まれてもよい。レンダリングされた直接信号と周囲信号とをミキシングすることで、完全な空間オーディオシーンが提示されてもよい。したがって、空間オーディオは、特定の方向からの音と、特定の方向がない周囲音とのオーディオを含んでもよい。装置100は、ユーザの仮想場所が閾値距離外である場合、特定の方向からの音のオーディオの少なくとも一部を周囲音と同じように提示するように構成されてもよい。
第1の割合および第2の割合は、ユーザが仮想オーディオキャプチャ場所513から閾値距離511内に仮想的に配置された場合と比較して、ユーザが値距離511より遠くに仮想的に配置された場合に、空間オーディオのボリュームより大きいボリュームで個別オーディオを提示するように設定されてもよい。
1つ以上の例において、個別オーディオをキャプチャするマイクロフォン410の場所は、当業者に既知であるように、位置検出タグを用いてシーンをモニタする測位システムなどから既知であってもよい。個別オーディオのオーディオキャプチャ場所を含むそのような特定音源場所情報により、装置100は、ユーザの現在の視方向に基づいて、空間オーディオ効果によって個別オーディオを可聴提示するように構成されてもよい。この空間オーディオ効果は、特定音源場所情報に対応するバーチャルリアリティ空間内の一方向からオーディオが生じていると知覚されるように、すなわち演奏家204の映像304の位置に従って、バーチャルリアリティ空間500内にオーディオを配置するように構成される。したがって、演奏家204の音は個別オーディオの大部分を占めているため、特定音源場所情報に従い空間オーディオ効果によって聴覚シーン内に配置されてもよい。
1つ以上の例において、空間オーディオ効果による空間オーディオの提示が可聴提示から除去されると(閾値距離511外へと移動すると)、より高い指向性を提供する空間オーディオ効果による個別オーディオの提示が増加してもよい。
前述の例において、閾値距離511は、空間オーディオとしての空間オーディオの提示と、周囲オーディオとしての空間オーディオの提示との遷移点を定めてもよい。しかしながら、別の例では、空間オーディオとしての空間オーディオの提示と、周囲オーディオとしての空間オーディオの提示との遷移は、あまり明確ではなく、閾値距離511によって定められる遷移領域にわたって生じもよい。したがって、1つ以上の例において、空間オーディオのオーディオコンテンツは、ユーザが閾値距離内にいるときは、空間オーディオ効果によって完全に空間オーディオとして提示されてもよい。閾値距離外ではオーディオミキシングが提供されてもよい。このオーディオミキシングでは、仮想オーディオキャプチャ場所513からの距離が増加するにつれて、空間オーディオ効果によって提示され個別の発生方向が知覚される空間オーディオのレベルが減少し、周囲オーディオ効果によって提示される空間オーディオのレベルが増加する。1つ以上の例において、このレベルの増加と減少は、空間オーディオ効果による空間オーディオと周囲オーディオ効果による同じ空間オーディオとのオーディオボリュームミキシングによって達成されてもよい。したがって、空間的に提示される空間オーディオのボリュームが距離に応じて減少してもよく、周囲的に提示される空間オーディオのボリュームが距離に応じて増大してもよい。別の1つ以上の例において、遷移領域は、場所513からの距離が増加するにつれて、空間オーディオのオーディオコンテンツが全方向から生じているように聞こえて周囲オーディオとなるまで、そのオーディオコンテンツが生じていると認知される方向の範囲を広げるように構成される空間オーディオ効果によって提供される。
仮想オーディオキャプチャ場所からの距離に応じた、周囲オーディオ効果によって提示される空間オーディオの増加は、第1関数によって制御されてもよい。仮想オーディオキャプチャ場所からの距離に応じた、空間オーディオ効果によって提示される空間オーディオの減少は、第2関数によって制御されてもよい。空間オーディオレベルの増減量の制御に用いられる関数は、空間/周囲オーディオ効果による空間オーディオの提示を仮想オーディオキャプチャ場所513からの仮想距離とマッピングする、線形関数または他の任意の連続関数であってもよい。空間オーディオ効果による空間オーディオの提示の減少に用いられる第1/第2関数は、周囲オーディオ効果による空間オーディオの提示の増加に用いられる関数と同じであっても異なってもよい。
前述の例において、空間オーディオは、方向情報によって、仮想オーディオキャプチャ場所から異なる方向に関連付けられた音を含む。図5を参照すると、ユーザが第1視聴位置503から第2視聴位置507へと矢印514の方向に移動すると、映像304および映像504への方向が右にシフトする。したがって、演奏家204および歌手404からの音は、前述のとおり空間オーディオから周囲オーディオへと有効に変更される。しかしながら、場所515(図4のシーン400内の実世界および図5のVR空間500に示す)から生じている音への方向は、矢印514の方向への移動において変化しない。したがって、ユーザの仮想場所507から仮想オーディオキャプチャ場所515の反対側にある音源については、それらの音の方向はあまり変わらず、そこへの方向の変化閾値未満などである。このように、前述の例では、空間オーディオを構成するすべての音が、閾値距離511に基づいて(遷移領域における任意のオーディオミキシングを伴って)空間オーディオ効果または周囲オーディオ効果によって提示されたが、この例では、空間オーディオの音のサブセットのみがこの方法で提示されてもよい。したがって、1つ以上の例において、ユーザの現在の仮想場所が仮想オーディオキャプチャ場所513からの閾値距離511より離れていても、方向情報により示される音の発生源が、ユーザの現在の仮想場所から、正対方向の閾値内で、仮想オーディオキャプチャ場所の反対側である空間オーディオの音は、空間オーディオ効果によって提示され、空間オーディオの残りの音は、周囲オーディオ効果によって提示される。換言すると、ユーザの仮想場所が仮想オーディオキャプチャ場所からの閾値距離外である場合、前述のサブセット以外の音の方向情報は、それらの音が、ユーザの仮想場所507から仮想オーディオキャプチャ場所513へと延びる方向516の方向閾値(円弧517によって示される)内の発生方向を有していることを示している。
図6は、空間オーディオミキシングを提供する装置100の少なくとも一部の例示的実施形態を示すブロック図である。1つ以上の例において、装置100は、601においてユーザの現在の仮想場所を受信するように構成された制御ロジック600を含む。VR装置101が現在の仮想場所を提供してもよい。装置100は、空間オーディオ処理ブロック602と個別オーディオ処理ブロック603とをさらに備える。空間オーディオ処理ブロックは、604において空間オーディオのオーディオコンテンツと方向情報とを受信する。個別オーディオ処理ブロック603は、605において、個別マイクロフォン410から取得したVRコンテンツのオーディオコンテンツを受信する。606において特定音源場所情報が受信されてもよい。したがって、空間オーディオ処理ブロック602からのオーディオはゲインコントローラ609によってゲインが制御され、ゲインコントローラ610によってゲインが制御された個別オーディオ処理ブロック603からのオーディオと組み合わされる。この組合せはミキサー607によって行われ、ミキシングされたオーディオ608がVR装置101による提示用に提供される。制御ロジック600は、空間オーディオ効果によって提示される空間オーディオと、周囲オーディオ効果によって提示される空間オーディオ(および他の任意の個別オーディオ)からの遷移を提供するための、ゲインコントローラ609、610による制御を規定する。このように、装置100は、閾値511を参照し、仮想場所503、507と仮想オーディオキャプチャ場所513との間の距離に基づいて、空間オーディオ効果によって提示される空間オーディオのゲインと、周囲オーディオ効果によって提示される空間オーディオのゲインとの制御を実行してもよい。
図7は、以下のステップを示すフロー図を示している。このステップは、バーチャルリアリティ視聴用のバーチャルリアリティ空間においてユーザに提示するシーンをキャプチャしたバーチャルリアリティコンテンツに関し、バーチャルリアリティコンテンツは、シーン内のオーディオキャプチャ場所に配置された少なくとも1つのオーディオキャプチャデバイスによってキャプチャされた空間オーディオを含み、空間オーディオは、オーディオキャプチャ場所からオーディオの1つ以上の音の音源への1つ以上の方向を定める方向情報を含む、シーンからのオーディオを含み、
シーン内のオーディオキャプチャ場所に対応するバーチャルリアリティ空間内の仮想オーディオキャプチャ場所に対する、バーチャルリアリティ空間内のユーザの仮想場所に基づき700、
仮想場所が仮想オーディオキャプチャ場所から閾値距離内である場合、方向情報に対応するバーチャルリアリティ空間内の1つ以上の方向から1つ以上の音が生じていると知覚されるような空間オーディオ効果によって、空間オーディオの可聴提示を行うことと、仮想場所が仮想オーディオキャプチャ場所から閾値距離外である場合、空間オーディオ効果なしで、かつ、音が特定の発生方向なしで知覚されるような周囲オーディオ効果によって、1つ以上の音の少なくともサブセットが可聴提示されるように、空間オーディオの可聴提示を行うことと701、を含む。
図8は、一例に係るプログラムを提供するコンピュータ/プロセッサ可読媒体800の模式図である。この例においては、コンピュータ/プロセッサ可読媒体は、デジタルバーサタイルディスク(Digital Versatile Disc:DVD)またはコンパクトディスク(Compact Disc:CD)などのディスクである。一部の実施形態においては、コンピュータ/プロセッサ可読媒体は、発明の機能を実行するようにプログラムされた任意の媒体であってもよい。コンピュータプログラムコードは、同じタイプの複数のメモリ間、またはROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュ、ハードディスク、ソリッドステートなどの異なるタイプの複数のメモリ間で分散されてもよい。
前述の例に示した装置は、携帯電子デバイス、ラップトップコンピュータ、携帯電話、スマートフォン、タブレットコンピュータ、携帯情報端末(Personal Digital Assistant:PDA)、デジタルカメラ、スマートウォッチ、スマートアイウェア、ペンコンピュータ、非携帯電子デバイス、デスクトップコンピュータ、モニタ、家電機器、スマートテレビ、サーバ、ウェアラブル装置、バーチャルリアリティ装置、または上記の1つ以上のもののモジュール/回路であってもよい。
任意の記載された装置、および/または特定の記載された装置の他の特徴は、例えばスイッチがオン状態のときなど、これらが動作可能状態のときのみ望ましい動作を実行するように装置が構成されることにより提供されうる。そのような場合は、非動作可能状態(例えばスイッチオフ状態)では適切なソフトウェアがアクティブメモリに必ずしもロードされなくてもよく、動作可能状態(例えばオン状態)でのみ適切なソフトウェアがロードされてもよい。該装置は、ハードウェア回路および/またはファームウェアを含んでいてもよい。該装置はメモリにロードされたソフトウェアを含んでいてもよい。そのようなソフトウェア/コンピュータプログラムは、同じメモリ/プロセッサ/機能ユニットおよび/または1つ以上のメモリ/プロセッサ/機能ユニット上に記録されていてもよい。
いくつかの例においては、記載された特定の装置は、望ましい動作を実行するように適切なソフトウェアにより事前にプログラムされていてもよく、該適切なソフトウェアは、ユーザが「鍵」をダウンロードして例えば該ソフトウェアおよび関連機能のロックを解除する/それらを実行可能にすることにより使用可能にすることもできる。そのような例による効果には、デバイスにさらなる機能が必要になった際にデータをダウンロードする必要性が少なくなることが含まれうる。これはまた、ユーザに実行可能にされないかもしれないが、機能のために事前にプログラムされたソフトウェアを記憶するのに十分な容量をデバイスが有すると考えられる例においても有用でありうる。
記載された任意の装置/回路/素子/プロセッサは、記載された機能に加えて他の機能を有していてもよく、これらの機能は同じ装置/回路/素子/プロセッサにより実行されてもよい。1つ以上の開示された態様は、関連するコンピュータプログラムの電子的配信、および適切な担体(例えばメモリや信号)に記録されたコンピュータプログラム(ソース/トランスポート符号化されてもよい)を含んでいてもよい。
本明細書に記載する任意の「コンピュータ」は、同じ回路基板上、回路基板の同じ領域/位置、または同じデバイス上に位置していてもいなくてもよい1つ以上の個々のプロセッサ/処理要素の集合を含んでいてもよい。いくつかの例においては、1つ以上の記載されたプロセッサは、複数のデバイス上に分散されていてもよい。同じまたは異なるプロセッサ/処理要素により、本明細書に記載された1つ以上の機能を実行してもよい。
「シグナリング」という用語は、送信および/または受信される一連の電気/光信号として伝送される1つ以上の信号を意味しうる。該一連の信号は、上記のシグナリングを構成する1つ、2つ、3つ、4つ、またはより多くの個々の信号成分または個別信号を含んでいてもよい。これらの個々の信号の一部または全部を、無線通信または有線通信により、同時に、順番に、および/または時間的に相互に重なるように送信/受信してもよい。
記載したコンピュータおよび/またはプロセッサおよびメモリ(例えばROM、CD−ROMなどを含む)の議論について、これらは、発明の機能を実行するようにプログラムされた、コンピュータプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(Field-Programmable Gate Array:FPGA)、および/または他のハードウェア要素を含んでいてもよい。
出願人はここに、本明細書に記載した個々の特徴およびそれらの特徴の2以上のあらゆる組合せを、それらの特徴や特徴の組合せが本明細書に開示したいずれかの問題を解決するかどうかにかかわらず、また請求項の範囲に限定されず、当業者の一般的な知識に照らせばそれらの特徴や組合せを本明細書全体に基づいて実施可能な程度に、別々に開示している。出願人は、開示された態様/例が、そのような個々の特徴または特徴の組合せから構成されうることを示唆している。上記の記載に鑑みて、開示の範囲内で様々な変形がなされうることは当業者には明らかであろう。
例に適用された基礎的な新規特徴を図示、記載、および指摘してきたが、記載されたデバイスおよび方法の形態および詳細については様々な省略、置換、変更が、本開示の範囲を逸脱することなく当業者によりなされうることは理解されるであろう。例えば、実質的に同じ機能を実質的に同じやり方で実行して同じ結果を得るような要素および/または方法ステップのすべての組合せが本開示の範囲内にあることは、明示的に表現されている。さらに、開示された形態または例に関連して図示および/または記載された構造および/または要素および/または方法ステップは、設計上の選択の一般的な事項として、他の開示された、記載された、または示唆された形態または例に組み込まれうると認識されるべきである。さらに、特許請求の範囲においては、ミーンズプラスファンクションの節は、本明細書に記載の構造が記載の機能を実行するものを含み、構造的等価物のみならず等価な構造物を含むものと意図されている。よって、木製部品同士を固定するのに釘は円筒状の表面を用いるがねじは螺旋状の表面を用いる点において、釘とねじは構造的等価物ではないかもしれないが、木製部品を固定する環境において、釘とねじは等価な構造物でありうる。

Claims (12)

  1. バーチャルリアリティ視聴用のバーチャルリアリティ空間においてユーザに提示するシーンをキャプチャしたバーチャルリアリティコンテンツに関し、前記バーチャルリアリティコンテンツは、前記シーン内のオーディオキャプチャ場所に配置された少なくとも1つのオーディオキャプチャデバイスによってキャプチャされた空間オーディオを含み、前記空間オーディオは、前記オーディオキャプチャ場所から前記オーディオの1つ以上の音の音源への1つ以上の方向を定める方向情報を含む、前記シーンからのオーディオを含み、
    前記シーン内の前記オーディオキャプチャ場所に対応する前記バーチャルリアリティ空間内の仮想オーディオキャプチャ場所に対する、前記バーチャルリアリティ空間内のユーザの仮想場所に基づき、
    前記仮想場所が前記仮想オーディオキャプチャ場所から閾値距離内である場合、前記方向情報に対応する前記バーチャルリアリティ空間内の1つ以上の方向から前記1つ以上の音が生じていると知覚されるような空間オーディオ効果によって、前記空間オーディオの可聴提示を行う手段と、
    前記仮想場所が前記仮想オーディオキャプチャ場所から前記閾値距離外である場合、前記空間オーディオ効果なしで、かつ、前記音が特定の発生方向なしで知覚されるような周囲オーディオ効果によって、前記1つ以上の音の少なくともサブセットが可聴提示されるように、前記空間オーディオの可聴提示を行う手段と、
    を備える、装置。
  2. 前記周囲オーディオ効果は、前記ユーザ周囲の全方向と、複数の方向とのいずれかから、前記空間オーディオの前記1つ以上の音が生じていると知覚されるように、前記1つ以上の音を可聴提示するように構成される、請求項1に記載の装置。
  3. 前記バーチャルリアリティ(Virtual Reality:VR)コンテンツは、前記シーン内の特定の音源からのオーディオを含む個別オーディオを含み、前記空間オーディオも、前記シーン内の同じ特定の音源からのオーディオを少なくとも部分的に含み、
    前記装置は、前記仮想場所が前記閾値距離内である場合に対して前記仮想場所が前記閾値距離外である場合、前記空間オーディオより大きいボリュームで前記個別オーディオの可聴提示を実行させられる、請求項1または2に記載の装置。
  4. 前記個別オーディオは、前記シーン内の前記特定の音源の場所を定める特定音源場所情報に関連付けられ、前記特定音源場所情報と、前記ユーザの現在の視方向と、前記仮想場所とに基づいて、前記個別オーディオは、前記特定音源場所情報に対応する前記バーチャルリアリティ空間内の一方向から前記オーディオが生じていると知覚されるように、前記オーディオを前記バーチャルリアリティ空間内に配置するように構成された前記空間オーディオ効果によって可聴提示用に提供される、請求項3に記載の装置。
  5. 前記閾値距離は、バーチャルリアリティ空間の領域を含む遷移領域を定め、前記遷移領域内では、前記空間オーディオ効果による可聴提示用に提供される空間オーディオと、前記周囲オーディオ効果による可聴提示用に提供される前記空間オーディオとの割合が、前記仮想オーディオキャプチャ場所からの距離の関数として変化する、請求項1から4のいずれかに記載の装置。
  6. 前記空間オーディオ効果による可聴提示用に提供される前記空間オーディオのゲインは、前記仮想オーディオキャプチャ場所からのユーザの前記仮想場所の距離が増加するにつれて減少する、請求項1から5のいずれかに記載の装置。
  7. 前記周囲オーディオ効果による可聴提示用に提供される前記空間オーディオのゲインは、前記仮想オーディオキャプチャ場所からのユーザの前記仮想場所の距離が増加するにつれて増大する、請求項1から6のいずれかに記載の装置。
  8. 前記空間オーディオ効果は、前記空間オーディオを可聴提示するために、頭部伝達関数とベクトルベース振幅パンニングのいずれかを用いる、請求項1から7のいずれかに記載の装置。
  9. 前記装置は、前記仮想場所が前記仮想オーディオキャプチャ場所から前記閾値距離外である場合、前記空間オーディオキャプチャデバイスによってキャプチャされた前記1つ以上の音すべてが
    i)前記空間オーディオ効果なしで、かつ
    ii)前記音が特定の発生方向なしで知覚されるような前記周囲オーディオ効果によって
    可聴提示されるように、前記空間オーディオの可聴提示を実行させられる、
    請求項1から8のいずれかに記載の装置。
  10. 前記仮想場所が前記仮想オーディオキャプチャ場所から前記閾値距離外であるときに、前記オーディオの前記サブセット以外の前記1つ以上の音の前記方向情報が、前記ユーザの前記仮想場所および仮想オーディオキャプチャ場所から延びる方向の方向閾値内の一方向を示している場合、前記装置は、前記1つ以上の音の可聴提示を前記空間オーディオ効果によって実行させられる、請求項1から8のいずれかに記載の装置。
  11. バーチャルリアリティ視聴用のバーチャルリアリティ空間においてユーザに提示するシーンをキャプチャしたバーチャルリアリティコンテンツに関し、前記バーチャルリアリティコンテンツは、前記シーン内のオーディオキャプチャ場所に配置された少なくとも1つのオーディオキャプチャデバイスによってキャプチャされた空間オーディオを含み、前記空間オーディオは、前記オーディオキャプチャ場所から前記オーディオの1つ以上の音の音源への1つ以上の方向を定める方向情報を含む、前記シーンからのオーディオを含み、
    前記シーン内の前記オーディオキャプチャ場所に対応する前記バーチャルリアリティ空間内の仮想オーディオキャプチャ場所に対する、前記バーチャルリアリティ空間内のユーザの仮想場所に基づき、
    前記仮想場所が前記仮想オーディオキャプチャ場所から閾値距離内である場合、前記方向情報に対応する前記バーチャルリアリティ空間内の1つ以上の方向から前記1つ以上の音が生じていると知覚されるような空間オーディオ効果によって、前記空間オーディオの可聴提示を行うことと、
    前記仮想場所が前記仮想オーディオキャプチャ場所から前記閾値距離外である場合、前記空間オーディオ効果なしで、かつ、前記音が特定の発生方向なしで知覚されるような周囲オーディオ効果によって、前記1つ以上の音の少なくともサブセットが可聴提示されるように、前記空間オーディオの可聴提示を行うことと、
    を含む方法。
  12. 装置の少なくとも1つのプロセッサ上で実行されると、
    バーチャルリアリティ視聴用のバーチャルリアリティ空間においてユーザに提示するシーンをキャプチャしたバーチャルリアリティコンテンツに関し、前記バーチャルリアリティコンテンツは、前記シーン内のオーディオキャプチャ場所に配置された少なくとも1つのオーディオキャプチャデバイスによってキャプチャされた空間オーディオを含み、前記空間オーディオは、前記オーディオキャプチャ場所から前記オーディオの1つ以上の音源への1つ以上の方向を定める方向情報を含む、前記シーンからのオーディオを含み、
    前記シーン内の前記オーディオキャプチャ場所に対応する前記バーチャルリアリティ空間内の仮想オーディオキャプチャ場所に対する、前記バーチャルリアリティ空間内のユーザの仮想場所に基づき、
    前記仮想場所が前記仮想オーディオキャプチャ場所から閾値距離内である場合、前記方向情報に対応する前記バーチャルリアリティ空間内の1つ以上の方向から前記1つ以上の音が生じていると知覚されるような空間オーディオ効果によって、前記空間オーディオの可聴提示を行うことと、
    前記仮想場所が前記仮想オーディオキャプチャ場所から前記閾値距離外である場合、前記空間オーディオ効果なしで、かつ、前記音が特定の発生方向なしで知覚されるような周囲オーディオ効果によって、前記1つ以上の音の少なくともサブセットが可聴提示されるように、前記空間オーディオの可聴提示を行うことと、
    を含む方法を前記装置に実行させるように構成されるプログラム命令を備える、コンピュータプログラム。
JP2019535798A 2016-12-30 2017-12-08 バーチャルリアリティ分野における装置および関連する方法 Active JP6741873B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP16207494.2A EP3343349B1 (en) 2016-12-30 2016-12-30 An apparatus and associated methods in the field of virtual reality
EP16207494.2 2016-12-30
PCT/FI2017/050872 WO2018122449A1 (en) 2016-12-30 2017-12-08 An apparatus and associated methods in the field of virtual reality

Publications (2)

Publication Number Publication Date
JP2020504384A JP2020504384A (ja) 2020-02-06
JP6741873B2 true JP6741873B2 (ja) 2020-08-19

Family

ID=57680160

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019535798A Active JP6741873B2 (ja) 2016-12-30 2017-12-08 バーチャルリアリティ分野における装置および関連する方法

Country Status (5)

Country Link
US (1) US11055057B2 (ja)
EP (1) EP3343349B1 (ja)
JP (1) JP6741873B2 (ja)
CN (1) CN110121695B (ja)
WO (1) WO2018122449A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3623934A1 (en) * 2018-09-11 2020-03-18 Nokia Technologies Oy An apparatus, method, computer program for enabling access to mediated reality content by a remote user
US11309983B2 (en) * 2018-12-21 2022-04-19 Qualcomm Incorporated Media exchange between devices
US11432097B2 (en) * 2019-07-03 2022-08-30 Qualcomm Incorporated User interface for controlling audio rendering for extended reality experiences
US11429340B2 (en) * 2019-07-03 2022-08-30 Qualcomm Incorporated Audio capture and rendering for extended reality experiences
US10812928B1 (en) * 2019-08-12 2020-10-20 Facebook Technologies, Llc Audio service design for operating systems
KR102297532B1 (ko) * 2019-10-17 2021-10-06 실버라이닝스튜디오 주식회사 가상현실 사운드 기반의 컨텐츠 제공 방법 및 시스템
US11493764B2 (en) * 2020-06-04 2022-11-08 Htc Corporation Method for dynamically displaying real-world scene, electronic device, and computer readable medium
US11381797B2 (en) * 2020-07-16 2022-07-05 Apple Inc. Variable audio for audio-visual content
CN112232898A (zh) * 2020-09-25 2021-01-15 北京五八信息技术有限公司 一种空间展示方法、装置、电子设备及存储介质
CN113490136B (zh) 2020-12-08 2023-01-10 广州博冠信息科技有限公司 声音信息处理方法及装置、计算机存储介质、电子设备
CN112929610B (zh) * 2021-02-06 2022-12-13 北京智扬天地展览服务有限公司 一种基于音视频的低成本虚拟现实车展辅助系统
WO2023076823A1 (en) * 2021-10-25 2023-05-04 Magic Leap, Inc. Mapping of environmental audio response on mixed reality device
CN114040318A (zh) * 2021-11-02 2022-02-11 海信视像科技股份有限公司 一种空间音频的播放方法及设备
CN114257920B (zh) * 2022-02-25 2022-07-29 北京荣耀终端有限公司 一种音频播放方法、系统和电子设备

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1995034186A1 (en) 1994-06-03 1995-12-14 Apple Computer, Inc. System for producing directional sound in computer-based virtual environments
US7149691B2 (en) * 2001-07-27 2006-12-12 Siemens Corporate Research, Inc. System and method for remotely experiencing a virtual environment
US9037468B2 (en) * 2008-10-27 2015-05-19 Sony Computer Entertainment Inc. Sound localization for user in motion
US8767968B2 (en) * 2010-10-13 2014-07-01 Microsoft Corporation System and method for high-precision 3-dimensional audio for augmented reality
US10129682B2 (en) * 2012-01-06 2018-11-13 Bacch Laboratories, Inc. Method and apparatus to provide a virtualized audio file
US20140133658A1 (en) * 2012-10-30 2014-05-15 Bit Cauldron Corporation Method and apparatus for providing 3d audio
US9197974B1 (en) 2012-01-06 2015-11-24 Audience, Inc. Directional audio capture adaptation based on alternative sensory input
JP5992210B2 (ja) 2012-06-01 2016-09-14 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
CN104010265A (zh) * 2013-02-22 2014-08-27 杜比实验室特许公司 音频空间渲染设备及方法
EP2809088B1 (en) * 2013-05-30 2017-12-13 Barco N.V. Audio reproduction system and method for reproducing audio data of at least one audio object
JP2015170926A (ja) * 2014-03-05 2015-09-28 キヤノン株式会社 音響再生装置、音響再生方法
US20160161594A1 (en) * 2014-12-05 2016-06-09 Stages Pcs, Llc Swarm mapping system
US10595147B2 (en) * 2014-12-23 2020-03-17 Ray Latypov Method of providing to user 3D sound in virtual environment
US9609383B1 (en) * 2015-03-23 2017-03-28 Amazon Technologies, Inc. Directional audio for virtual environments
GB2540199A (en) 2015-07-09 2017-01-11 Nokia Technologies Oy An apparatus, method and computer program for providing sound reproduction
GB2540175A (en) 2015-07-08 2017-01-11 Nokia Technologies Oy Spatial audio processing apparatus
CN109076306B (zh) * 2016-04-12 2021-04-13 皇家飞利浦有限公司 强调靠近焦距的声音源的空间音频处理
CN106023983B (zh) * 2016-04-27 2019-11-05 Oppo广东移动通信有限公司 基于虚拟现实vr场景的多用户语音交互方法以及装置

Also Published As

Publication number Publication date
EP3343349B1 (en) 2022-06-15
JP2020504384A (ja) 2020-02-06
WO2018122449A1 (en) 2018-07-05
CN110121695B (zh) 2022-05-27
EP3343349A1 (en) 2018-07-04
CN110121695A (zh) 2019-08-13
US11055057B2 (en) 2021-07-06
US20200089466A1 (en) 2020-03-19

Similar Documents

Publication Publication Date Title
JP6741873B2 (ja) バーチャルリアリティ分野における装置および関連する方法
EP3236345A1 (en) An apparatus and associated methods
US10798518B2 (en) Apparatus and associated methods
CN110999328B (zh) 装置以及相关联的方法
US10993066B2 (en) Apparatus and associated methods for presentation of first and second virtual-or-augmented reality content
US20180275861A1 (en) Apparatus and Associated Methods
WO2019057530A1 (en) APPARATUS AND ASSOCIATED METHODS FOR PRESENTING AUDIO IN THE FORM OF SPACE AUDIO
JP7037654B2 (ja) キャプチャされた空間オーディオコンテンツの提示用の装置および関連する方法
US11140508B2 (en) Apparatus and associated methods for audio presented as spatial audio
JP2021508193A5 (ja)
US20220386060A1 (en) Signalling of audio effect metadata in a bitstream
US20220036075A1 (en) A system for controlling audio-capable connected devices in mixed reality environments
EP3321795B1 (en) A method and associated apparatuses
US20230072261A1 (en) Computer system for rendering event-customized audio content, and method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200720

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200722

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200727

R150 Certificate of patent or registration of utility model

Ref document number: 6741873

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250