JP2020501428A - 仮想現実(vr)、拡張現実(ar)、および複合現実(mr)システムのための分散型オーディオ捕捉技法 - Google Patents

仮想現実(vr)、拡張現実(ar)、および複合現実(mr)システムのための分散型オーディオ捕捉技法 Download PDF

Info

Publication number
JP2020501428A
JP2020501428A JP2019528706A JP2019528706A JP2020501428A JP 2020501428 A JP2020501428 A JP 2020501428A JP 2019528706 A JP2019528706 A JP 2019528706A JP 2019528706 A JP2019528706 A JP 2019528706A JP 2020501428 A JP2020501428 A JP 2020501428A
Authority
JP
Japan
Prior art keywords
location
virtual
audio
processor
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019528706A
Other languages
English (en)
Other versions
JP7125397B2 (ja
Inventor
ジョージ エー. サンガー,
ジョージ エー. サンガー,
ブライアン ロイド シュミット,
ブライアン ロイド シュミット,
アナスタシア アンドレエヴナ タジク,
アナスタシア アンドレエヴナ タジク,
テリー マイケル オガーラ,
テリー マイケル オガーラ,
デイビッド マシュー シャムウェイ,
デイビッド マシュー シャムウェイ,
アラン スティーブン ハワース,
アラン スティーブン ハワース,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Magic Leap Inc
Original Assignee
Magic Leap Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Magic Leap Inc filed Critical Magic Leap Inc
Publication of JP2020501428A publication Critical patent/JP2020501428A/ja
Priority to JP2022128787A priority Critical patent/JP2022163173A/ja
Application granted granted Critical
Publication of JP7125397B2 publication Critical patent/JP7125397B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/20Processing of the output signals of the acoustic transducers of an array for obtaining a desired directivity characteristic
    • H04R2430/21Direction finding using differential microphone array [DMA]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2460/00Details of hearing devices, i.e. of ear- or headphones covered by H04R1/10 or H04R5/033 but not provided for in any of their subgroups, or of hearing aids covered by H04R25/00 but not provided for in any of its subgroups
    • H04R2460/07Use of position data from wide-area or local-area positioning systems in hearing devices, e.g. program or information selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/027Spatial or constructional arrangements of microphones, e.g. in dummy heads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/04Circuit arrangements, e.g. for selective connection of amplifier inputs/outputs to loudspeakers, for loudspeaker detection, or for adaptation of settings to personal preferences or hearing impairments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/15Aspects of sound capture and related signal processing for recording or reproduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Stereophonic System (AREA)

Abstract

仮想現実、拡張現実、および複合現実システム等の用途において使用され得る、オーディオを捕捉するためのシステムおよび方法。いくつかのシステムは、複数の分散型監視デバイスを環境内に含んでもよく、それぞれ、マイクロホンと、場所追跡ユニットとを有する。本システムは、オーディオ信号を捕捉する一方、また、オーディオ信号の捕捉の間、監視デバイスの場所を示す、場所追跡信号を経時的に捕捉することができる。本システムは、オーディオ信号および場所追跡信号に基づいて、環境内の音波場の少なくとも一部の表現を生成することができる。本システムはまた、オーディオ信号および場所追跡信号に基づいて、環境の1つ以上の音響性質を決定してもよい。

Description

(全ての優先権出願に対する参照による援用)
本願と共に出願された出願データシートにおいて外国または国内の優先権主張が特定されているすべての出願は、37 CFR 1.57のもとで参照により本明細書に組み込まれる。すなわち、本願は、2016年12月5日に出願され、“DISTRIBUTED AUDIO CAPTURING TECHNIQUES FOR VIRTUAL REALITY (VR), AUGMENTED REALITY (AR), AND MIXED REALITY (MR) SYSTEMS”と題された米国仮特許出願第62/430,268号に対する優先権の利益を主張するものであり、該米国仮特許出願の内容は、参照により本明細書中に援用される。
本開示は、仮想現実、拡張現実、および複合現実システム等の用途において使用され得る、分散型オーディオ捕捉技法に関する。
現代のコンピューティングおよびディスプレイ技術は、仮想現実、拡張現実、および複合現実システムの開発を促進している。仮想現実または「VR」システムは、ユーザが体験するための模擬環境を作成する。これは、頭部搭載型ディスプレイを通してコンピュータ生成画像をユーザに提示することによって、行われることができる。本画像は、模擬環境にユーザを没頭させる感覚的体験を生成する。仮想現実シナリオは、典型的には、コンピュータ生成画像の提示だけではなく、実世界画像を含むことも伴う。
拡張現実システムは、概して、実世界環境を模擬要素で補完する。例えば、拡張現実または「AR」システムは、頭部搭載型ディスプレイを介して、周辺の実世界環境の光景をユーザに提供し得る。しかしながら、コンピュータ生成画像はまた、実世界環境を強化するようにディスプレイ上に提示されることもできる。本コンピュータ生成画像は、実世界環境に状況的に関連する要素を含むことができる。そのような要素は、模擬テキスト、画像、オブジェクト等を含むことができる。複合現実または「MR」システムもまた、シミュレートされたオブジェクトを実世界環境の中に導入するが、これらのオブジェクトは、典型的には、ARシステムを上回る相互作用度を特徴とする。
図1は、ユーザに、人々、木々、背景における建物、およびコンクリートプラットフォーム20を特徴とする、実世界公園状設定6が見える、例示的AR/MR場面1を描写する。これらのアイテムに加えて、コンピュータ生成画像もユーザに提示される。コンピュータ生成画像は、例えば、実世界プラットフォーム20上に立っているロボット像10、およびマルハナバチの擬人化のように見える、飛んでいる漫画のようなアバタキャラクタ2を含み得るが、これらの要素2、10は、実際には実世界環境に存在しない。
仮想画像要素の自然かつもっともらしい提示を促進する、VR/AR/MR技術を生産することは、困難であり得る。しかし、オーディオはVR/AR/MR体験をより没入型にすることに役立ち得る。したがって、これらのタイプのシステムのための改良されたオーディオ技法の必要がある。
いくつかの実施形態では、システムは、複数の分散型監視デバイスであって、各監視デバイスは、少なくとも1つのマイクロホンと、場所追跡ユニットとを備え、監視デバイスは、複数のオーディオ信号を音源から捕捉し、複数のオーディオ信号の捕捉の間、それぞれ、監視デバイスの場所を示す、複数の場所追跡信号を経時的に捕捉するように構成される、複数の分散型監視デバイスと、複数のオーディオ信号および複数の場所追跡信号を受信するように構成される、プロセッサであって、プロセッサはさらに、オーディオ信号および場所追跡信号に基づいて、音源によって作成された音波場の少なくとも一部の表現を生成するように構成される、プロセッサとを備える。
いくつかの実施形態では、デバイスは、複数の分散型監視デバイスから、音源から捕捉された複数のオーディオ信号を受信するステップと、複数の監視デバイスから、複数の場所追跡信号を受信するステップであって、複数の場所追跡信号は、それぞれ、複数のオーディオ信号の捕捉の間、監視デバイスの場所を経時的に示す、ステップと、オーディオ信号および場所追跡信号に基づいて、音源によって作成された音波場の少なくとも一部の表現を生成するステップとを含む、方法を行うように構成される、プロセッサと、オーディオ信号および場所追跡信号を記憶するためのメモリとを備える。
いくつかの実施形態では、方法は、複数の分散型監視デバイスから、音源から捕捉された複数のオーディオ信号を受信するステップと、複数の監視デバイスから、複数の場所追跡信号を受信するステップであって、複数の場所追跡信号は、それぞれ、複数のオーディオ信号の捕捉の間、監視デバイスの場所を経時的に示す、ステップと、オーディオ信号および場所追跡信号に基づいて、音源によって作成された音波場の少なくとも一部の表現を生成するステップとを含む。
いくつかの実施形態では、システムは、複数の分散型監視デバイスであって、各監視デバイスは、少なくとも1つのマイクロホンと、場所追跡ユニットとを備え、監視デバイスは、環境内の複数のオーディオ信号を捕捉し、複数のオーディオ信号の捕捉の間、それぞれ、監視デバイスの場所を示す、複数の場所追跡信号を経時的に捕捉するように構成される、複数の分散型監視デバイスと、複数のオーディオ信号および複数の場所追跡信号を受信するように構成される、プロセッサであって、さらに、オーディオ信号および場所追跡信号に基づいて、環境の1つ以上の音響性質を決定するように構成される、プロセッサとを備える。
いくつかの実施形態では、デバイスは、複数の分散型監視デバイスから、環境内で捕捉された複数のオーディオ信号を受信するステップと、複数の監視デバイスから、複数の場所追跡信号を受信するステップであって、複数の場所追跡信号は、それぞれ、複数のオーディオ信号の捕捉の間、監視デバイスの場所を経時的に示す、ステップと、オーディオ信号および場所追跡信号に基づいて、環境の1つ以上の音響性質を決定するステップとを含む、方法を行うように構成される、プロセッサと、オーディオ信号および場所追跡信号を記憶するためのメモリとを備える。
いくつかの実施形態では、方法は、複数の分散型監視デバイスから、環境内で捕捉された複数のオーディオ信号を受信するステップと、複数の監視デバイスから、複数の場所追跡信号を受信するステップであって、複数の場所追跡信号は、それぞれ、複数のオーディオ信号の捕捉の間、監視デバイスの場所を経時的に示す、ステップと、オーディオ信号および場所追跡信号に基づいて、環境の1つ以上の音響性質を決定するステップとを含む。
いくつかの実施形態では、システムは、空間の中心部分の複数のビデオを複数の異なる視点から捕捉するように、空間の周縁を中心として位置する、複数の分散型ビデオカメラと、複数のビデオの捕捉の間、複数のオーディオ信号を捕捉するように、空間の周縁を中心として位置する、複数の分散型マイクロホンと、複数のビデオ、複数のオーディオ信号、および空間内の各マイクロホンの位置についての場所情報を受信するように構成される、プロセッサであって、さらに、オーディオ信号および場所情報に基づいて、空間に関する音波場の少なくとも一部の表現を生成するように構成される、プロセッサとを備える。
いくつかの実施形態では、デバイスは、複数の分散型ビデオカメラから、複数の視点から捕捉された場面の複数のビデオを受信するステップと、複数の分散型マイクロホンから、複数のビデオの捕捉の間に捕捉された複数のオーディオ信号を受信するステップと、複数のマイクロホンの位置についての場所情報を受信するステップと、オーディオ信号および場所情報に基づいて、音波場の少なくとも一部の表現を生成するステップとを含む、方法を行うように構成される、プロセッサと、オーディオ信号および場所追跡信号を記憶するためのメモリとを備える。
いくつかの実施形態では、方法は、複数の分散型ビデオカメラから、複数の視点から捕捉された場面の複数のビデオを受信するステップと、複数の分散型マイクロホンから、複数のビデオの捕捉の間に捕捉された複数のオーディオ信号を受信するステップと、複数のマイクロホンの位置についての場所情報を受信するステップと、オーディオ信号および場所情報に基づいて、音波場の少なくとも一部の表現を生成するステップとを含む。
図1は、例示的AR/MRシステムを使用した拡張/複合現実場面のユーザのビューを図示する。
図2は、例示的VR/AR/MRシステムを示す。
図3は、複数の分散型デバイスを使用して、音波場の表現を作成するためのシステムを図示する。
図4は、音波場を作成するための図3に示されるシステムの動作方法の例示的実施形態を図示する、フローチャートである。
図5は、複数のユーザデバイスを使用して、あるイベントのための音波場の表現を作成するためのウェブベースのシステムを図示する。
図6は、あるイベントの音波場を作成するための図5に示されるウェブベースのシステムの動作の例示的実施形態を図示する、フローチャートである。
図7は、環境の音響性質を決定するために使用され得る、システムの例示的実施形態を図示する。
図8は、図7に示されるシステムを使用して、環境の1つ以上の音響性質を決定するための方法の例示的実施形態を図示する、フローチャートである。
図9は、立体ビデオ捕捉を実施するための例示的システムを図示する。
図10は、立体ビデオ捕捉の間、オーディオを捕捉するための例示的システムを図示する。
図11は、図10に示されるシステムを使用して、立体ビデオのためのオーディオを捕捉するための例示的方法を示す、フローチャートである。
図2は、例示的仮想/拡張/複合現実システム80を示す。仮想/拡張/複合現実システム80は、ディスプレイ62と、そのディスプレイ62の機能をサポートする種々の機械および電子モジュールおよびシステムとを含む。ディスプレイ62は、ユーザ60によって装着可能であって、ディスプレイ62をユーザ60の眼の正面に位置付けるように構成される、フレーム64に結合されてもよい。いくつかの実施形態では、スピーカ66が、フレーム64に結合され、ユーザの外耳道に隣接して位置付けられる(いくつかの実施形態では、示されない別のスピーカが、ユーザの他方の外耳道に隣接して位置付けられ、ステレオ/成形可能音制御を提供する)。ディスプレイ62は、有線または無線コネクティビティ68等によって、ローカルデータ処理モジュール70に動作可能に結合され、フレーム64に取り付けられる、ユーザによって装着されるヘルメットまたは帽子に取り付けられる、ヘッドホンに内蔵される、または別様にユーザ60に除去可能に取り付けられる(例えば、リュック式構成において、ベルト結合式構成において等)等、種々の構成において搭載され得る。
ローカル処理およびデータモジュール70は、両方ともデータの処理および記憶を支援するために利用され得る、プロセッサと、不揮発性メモリ(例えば、フラッシュメモリ)等のデジタルメモリとを含んでもよい。これは、画像監視デバイス(例えば、カメラ)、マイクロホン、慣性測定ユニット、加速度計、コンパス、GPSユニット、無線デバイス、および/またはジャイロスコープ等、システム80の一部として提供される、ローカルセンサから捕捉されるデータを含む。ローカルセンサは、フレーム64に動作可能に結合されてもよい、または別様にユーザ60に取り付けられてもよい。代替として、または加えて、センサデータは、可能性として、処理または読出後のディスプレイ62および/またはスピーカ66への通過のために、遠隔処理モジュール72および/または遠隔データリポジトリ74を使用して取得および/または処理されてもよい。いくつかの実施形態では、ローカル処理およびデータモジュール70は、本明細書に議論されるように、図3に示されるオーディオ/場所監視デバイス310内のもの等の遠隔センサから捕捉されたデータを処理および/または記憶する。ローカル処理およびデータモジュール70は、これらの遠隔モジュール(72、74)が相互に動作可能に結合され、ローカル処理およびデータモジュール70へのリソースとして利用可能であるように、有線または無線通信リンクを介して等、通信リンク(76、78)によって、遠隔処理モジュール72および遠隔データリポジトリ74に動作可能に結合されてもよい。いくつかの実施形態では、遠隔データリポジトリ74は、インターネットまたは「クラウド」リソース構成における他のネットワーキング構成を通して利用可能であってもよい。
(VR、AR、およびMRシステムにおける音波場捕捉および使用)
本節は、仮想現実(VR)、拡張現実(AR)、および複合現実(MR)システム等の用途において使用され得る、複数の分散型デバイスからのオーディオ記録を使用して、音波場の少なくとも一部の表現を作成することに関する。
音は、空気等の媒体中の圧力変動から生じる。これらの圧力変動は、音源における振動によって生成される。音源からの振動は、次いで、縦方向波として、媒体を通して伝搬する。これらの波は、媒体中の圧縮(増加圧力)と膨張(低減圧力)の交互領域から成る。
種々の量が、空間内の点における音を特性評価するために使用されることができる。これらは、例えば、圧力値、振動振幅、周波数、または他の量を含むことができる。音波場は、概して、空間内の種々の点および/または種々の時点における1つ以上のそのような音定義量の集合から成る。例えば、音波場は、種々の時点における空間グリッド上の各点に存在する音の測定または他の特性評価から成ることができる。典型的には、音波場の空間グリッドは、規則的に離間される点から成り、音の測定は、時間の規則的インターバルにおいて行われる。しかし、音波場の空間および/または時間的分解能は、用途に応じて変動し得る。点源のセットによる表現等の音波場のあるモデルは、浮動点座標によって規定された任意の場所において評価され、所定のグリッドに結び付けられることができない。
音波場は、音源に比較的に近い近距離領域と、近距離領域を越えた遠距離領域とを含むことができる。音波場は、障害なく源から自由に伝搬する音波と、領域内のオブジェクトまたは領域の境界から反射する波とから成ることができる。
図3は、複数の分散型デバイス310を使用して、音波場340の表現を作成するためのシステム300を図示する。いくつかの実施形態では、システム300は、本明細書でさらに議論されるように、VR/AR/MRシステム80のためのオーディオを提供するために使用されることができる。図3に示されるように、音源302は、音を環境304の中に投影する。音源302は、例えば、演奏者、楽器、オーディオスピーカ、または任意の他の音源を表すことができる。環境304は、例えば、コンサートホール、競技場、会議室等を含む、任意の屋内または屋外空間であることができる。単一音源302のみが、図示されるが、環境304は、複数の音源を含むことができる。また、複数の音源は、任意の様式において、環境304全体を通して分散されることができる。
システム300は、複数の分散型オーディオおよび/または場所監視デバイス310を含む。これらのデバイスはそれぞれ、物理的に明確に異なることができ、独立して動作することができる。監視デバイス310は、モバイル式(例えば、人物によって携行される)であることができ、環境304全体を通して分散型様式で離間されることができる。監視デバイス310間に、任意の固定の相対的空間関係は必要はない。実際、監視デバイス310が、独立してモバイル式であるため、種々のデバイス310間の空間関係は、経時的に変動し得る。5つの監視デバイス300が、図示されるが、任意の数の監視デバイスが、使用されることができる。さらに、図3は、2次元図面であって、したがって、監視デバイス300を2次元で分散されるように示すが、それらはまた、環境304の全3次元全体を通して分散されることができる。
各監視デバイス310は、少なくとも1つのマイクロホン312を含む。マイクロホン312は、例えば、等方性または指向性であることができる。使用可能なマイクロホンピックアップパターンは、例えば、カーディオイド、ハイパーカーディオイド、およびスーパーカーディオイドを含むことができる。マイクロホン312は、監視デバイス310によって使用され、1つ以上の音源302からの音を電気信号に変換することによって、オーディオ信号を捕捉することができる。いくつかの実施形態では、監視デバイス310はそれぞれ、単一マイクロホンを含み、モノラルオーディオを記録する。しかし、他の実施形態では、監視デバイス310は、複数のマイクロホンを含むことができ、例えば、ステレオオーディオを捕捉することができる。複数のマイクロホン312は、各監視デバイス310における音波の到着角を決定するために使用されることができる。
図示されないが、監視デバイス310はまたそれぞれ、マイクロホン312によってピックアップされたオーディオ信号をローカルで記録するために、プロセッサと、記憶デバイスとを含むことができる。代替として、および/または加えて、各監視デバイス310は、送信機(例えば、無線送信機)を含み、捕捉された音がデジタル的にエンコードされ、リアルタイムで1つ以上の遠隔システムまたはデバイス(例えば、プロセッサ330)に伝送されることを可能にすることができる。遠隔システムまたはデバイスにおける受信に応じて、捕捉された音は、音が捕捉された空間の音響性質の記憶されたモデルを更新するために使用されることができる、または本明細書でさらに議論されるように、VR/AR/MR体験において捕捉された音の現実的模写を作成するために使用されることができる。
各監視デバイス310はまた、場所追跡ユニット314を含む。場所追跡ユニット314は、環境304内の監視デバイス310の場所を追跡するために使用されることができる。各場所追跡ユニット314は、その対応する監視デバイス310の場所を絶対的意味または相対的意味(例えば、システム300の1つ以上の他のコンポーネントに対して)で表すことができる。いくつかの実施形態では、各場所追跡ユニット314は、場所追跡信号を作成し、これは、時間の関数として、監視デバイス310の場所を示すことができる。例えば、場所追跡信号は、監視デバイス310が時間の規則的インターバルで位置した場所を示す、一連の空間座標を含み得る。
いくつかの実施形態では、場所追跡ユニット314は、直接、場所を測定する。そのような場所追跡ユニット314の一実施例は、全地球測位システム(GPS)である。他の実施形態では、場所追跡ユニット314は、場所を間接的に測定する。例えば、これらのタイプのユニットは、他の測定または信号に基づいて、場所を推測してもよい。本タイプの場所追跡ユニット314の実施例は、カメラからの画像を分析し、場所キューを提供する、特徴を抽出するものである。監視デバイス310はまた、オーディオエミッタ(例えば、スピーカ)または無線エミッタを含むことができる。オーディオまたは無線信号は、監視デバイス間で交換されることができ、マルチラテレーションおよび/または三角測量が、監視デバイス310の相対的場所を決定するために使用されることができる。
場所追跡ユニット314はまた、単に、監視デバイス310の場所だけではなく、また、例えば、ジャイロスコープ、加速度計、および/または他のセンサを使用して、その空間配向も測定および追跡してもよい。いくつかの実施形態では、場所追跡ユニット314は、監視デバイス310の場所および/または配向を決定するために、複数のタイプのセンサからのデータを組み合わせることができる。
監視デバイス310は、例えば、スマートフォン、タブレットコンピュータ、ラップトップコンピュータ等であることができる(図5に示されるように)。そのようなデバイスは、それらが、普遍的であって、多くの場合、マイクロホン、GPSユニット、カメラ、ジャイロスコープ、加速度計、および他のセンサが内蔵されているため、有利である。監視デバイス310はまた、VR/AR/MRシステム80等のウェアラブルデバイスであってもよい。
図3に示されるシステム300はまた、プロセッサ330を含む。プロセッサ330は、複数の分散型監視デバイス310と通信可能に結合されることができる。これは、監視デバイス310からプロセッサ330への矢印によって図示され、これは、個別の監視デバイス310とプロセッサ330との間の通信リンクを表す。通信リンクは、任意の通信規格またはインターフェースに従って、有線または無線であることができる。個別の監視デバイス310とプロセッサ330との間の通信リンクは、オーディオおよび場所追跡信号をプロセッサ330にダウンロードするために使用されることができる。いくつかの実施形態では、プロセッサ330は、図1に示されるVR/AR/MRシステム80の一部であることができる。例えば、プロセッサ330は、ローカル処理モジュール70または遠隔処理モジュール72であり得る。
プロセッサ330は、インターフェースを含み、これは、個別の捕捉されたオーディオ信号および場所追跡信号を監視デバイス310から受信するために使用されることができる。オーディオ信号および場所追跡信号は、それらが捕捉されると、プロセッサ330にリアルタイムでアップロードされることができる、またはそれらは、監視デバイス310によってローカルで記憶され、いくつかの時間インターバルにわたって、またはいくつかのイベントにわたって等、捕捉の完了後にアップロードされることができる。プロセッサ330は、汎用または特殊コンピュータであることができ、複数の分散型オーディオ監視デバイス310からのオーディオ信号および場所追跡信号を処理および記憶するための揮発性および/または不揮発性メモリ/記憶装置を含むことができる。システム300の動作が、ここで、図4に関して議論されるであろう。
図4は、図3に示されるシステム300の動作の方法400の例示的実施形態を図示する、フローチャートである。並行して行われる、ブロック410aおよび410bでは、監視デバイス310が、環境304全体を通して複数の分散場所において、オーディオ信号を音源302から捕捉する一方、また、その個別の場所を追跡する。各オーディオ信号は、典型的には、異なる時点で行われる複数の音測定から成る、デジタル信号であってもよいが、アナログオーディオ信号もまた、使用されることができる。各場所追跡信号もまた、典型的には、デジタル信号であってもよく、これは、異なる時点で行われる複数の場所測定を含む。監視デバイス310からの結果として生じるオーディオ信号および場所追跡信号は両方とも、オーディオ記録の各インターバルが環境304内の具体的場所と関連付けられ得るように、適切にタイムスタンプされることができる。いくつかの実施形態では、音サンプルおよび場所サンプルは、時間的に規則的インターバルで同期して行われるが、これは、要求されない。
ブロック420では、プロセッサ330は、オーディオ信号および追跡信号を分散型監視デバイス310から受信する。信号は、コマンドに応じて、または具体的時間またはインターバルで自動的に、監視デバイス310からアップロードされることができる。オーディオおよび場所追跡信号内のタイムスタンプデータに基づいて、プロセッサ330は、複数の監視デバイス310から受信された種々のオーディオおよび場所追跡信号を同期させることができる。
ブロック430では、プロセッサ330は、オーディオ信号および追跡信号を分析し、環境304内の音波場の少なくとも一部の表現を生成する。いくつかの実施形態では、環境304は、空間点のグリッドに分割され、音波場は、空間点あたり1つ以上の値(例えば、音測定)を含み、これは、特定の時点における、または特定の時間周期にわたる、その空間点での音を特性評価する。したがって、グリッド上の空間点毎のデータは、値の時系列を含むことができ、これは、その空間点での音を経時的に特性評価する(音波場の空間および時間分解能は、用途、監視デバイス310の数、場所追跡信号の時間分解能等に応じて変動し得る)。
一般に、分散型監視デバイス310のみが、環境内304の点のグリッド上の場所のサブセットにおいて、音波場の実際の測定を実施する。加えて、監視デバイス310は、モバイル式であるため、各瞬間における実際の音測定で表される空間点の具体的サブセットは、変動し得る。したがって、プロセッサ330は、種々の技法を使用して、欠測情報に近似するように、残りの空間点および時間に関する音波場を推定することができる。例えば、音波場は、セット内の各点源が監視デバイスのうちの特定の1つに対する場所に対応し、監視デバイスのうちの特定の1つによって捕捉されたオーディオを出力する、音の点源のセットをシミュレートすることによって、近似的に再現されることができる。加えて、マルチラテレーション、三角測量、または他の位置特定方法が、監視デバイス310において受信されたオーディオセグメントに基づいて、音源の座標を決定するために使用されることができ、次いで、仮想コンテンツ内に含まれる音波場の表現は、決定された座標(すなわち、複数の点源モデル)から発出するオーディオセグメントを含むことができる。音波場は、多数の空間点を備えてもよいが、プロセッサ330は、必ずしも、音波場全体を計算する必要はなく、むしろ、用途に基づいて、必要に応じて、その一部のみを計算することができることを理解されたい。例えば、プロセッサ330は、具体的空間着目点に関する音波場のみを計算してもよい。本プロセスは、空間着目点が変化するにつれて、反復的に実施されることができる。
プロセッサ330はまた、音位置特定を実施し、環境内304の1つ以上の音源302の場所および/またはそれに向かう方向を決定することができる。音位置特定は、以下(およびその組み合わせ)、すなわち、環境内304の異なる場所におけるある識別された音の個別の到着時間の比較、環境内304の異なる場所におけるある識別された音の個別の大きさの比較、環境内304の異なる場所におけるある識別された音のある周波数成分の大きさおよび/または位相の比較を含む、いくつかの技法に従って行われることができる。いくつかの実施形態では、プロセッサ330は、到着時間差(TDOA)を決定するために、異なる監視デバイス310において受信されたオーディオ信号間の相互相関を算出し、次いで、マルチラテレーションを使用して、オーディオ源の場所を決定することができる。三角測量もまた、使用されてもよい。プロセッサ330はまた、オーディオを隔離された音源から抽出することができる。特定のオーディオ源からの監視デバイス毎のTDOAに対応する時間オフセットは、特定の源を増幅させるためにオーディオトラックを総和する前に、特定の源からのオーディオコンテンツを同期させるために、監視デバイスのセットによって捕捉された各対応するオーディオトラックから減算されることができる。抽出されたオーディオは、本明細書に議論されるように、VR/AR/MR環境において使用されることができる。
プロセッサ330はまた、全体として音波場に変換を実施することができる。例えば、記憶された源仰角、方位角、および距離(θ、φ、r)依存頭部関連伝達関数(HRTF)を適用することによって、プロセッサ330は、左および右スピーカチャネルを通した出力のために、仮想座標系内の音源に対する任意の位置および配向に関して、捕捉されたオーディオを修正することができる。加えて、プロセッサ330は、回転変換を音波場に適用することができる。加えて、プロセッサ330は、オーディオを環境内の特定の音源302から抽出することができるため、その源は、3次元オーディオ処理を使用することによって、モデル化された環境内の任意の場所に設置および/または移動されることができる。
いったんプロセッサ330が、音波場340の表現を計算すると、これは、音波場内の任意の所望の場所においてマイクロホンによって検出されたであろう、オーディオ信号を推定するために使用されることができる。例えば、図3は、仮想マイクロホン320を図示する。仮想マイクロホン320は、仮想マイクロホン320の場所における音波場の実際の測定値を捕捉する、ハードウェアデバイスではない。代わりに、仮想マイクロホン320は、環境内304の任意の場所に設置され得る、シミュレートされた構造体である。環境内304の音波場340の表現を使用して、プロセッサ330は、シミュレートされたオーディオ信号を決定することができ、これは、仮想マイクロホン320の位置に位置する物理的マイクロホンによって検出されたであろう、オーディオ信号の推定値である。これは、例えば、音データが利用可能な仮想マイクロホンの場所の最近傍の音波場内のグリッド点を決定し、次いで、その音データと仮想マイクロホンを関連付けることによって行われることができる。他の実施形態では、仮想マイクロホン320からのシミュレートされたオーディオ信号は、例えば、仮想マイクロホンの近傍の複数のグリッド点からのオーディオ信号間を補間することによって決定されることができる。仮想マイクロホン320は、随時、環境304を中心として、任意の場所に移動されることができる(例えば、ソフトウェア制御インターフェースを使用して)。故に、その現在の場所に基づいて、音データと仮想マイクロホン320を関連付けるプロセスは、仮想マイクロホンが移動するにつれて、経時的に反復的に繰り返されることができる。
方法400は、ブロック440−460に進むことができる。これらのブロックでは、音波場340の表現は、図3に示されるように、VR/AR/MRシステム80に提供されることができる。すでに議論されたように、VR/AR/MRシステム80は、仮想環境内のシミュレートされた体験または実際の環境内の拡張/複合現実体験を提供するために使用されることができる。仮想現実体験の場合、実世界環境304から収集された音波場340が、シミュレートされた仮想環境に転送またはマッピングされることができる。拡張および/または複合現実体験の場合、音波場340は、1つの実世界環境304から別の実世界環境に転送またはマッピングされることができる。
ユーザによって体験される環境が実際の環境であるかまたは仮想環境であるかにかかわらず、図4のブロック440では、VR/AR/MRシステム80は、ユーザが環境内で動き回るにつれて、仮想または実際の環境内のユーザの場所および/または配向を決定することができる。仮想または実際の環境内のユーザの場所および/または配向に基づいて、VR/AR/MRシステム80(またはプロセッサ330)は、ユーザの場所と音波場340の表現内の点を関連付けることができる。
図4のブロック450では、VR/AR/MR現実システム80(またはプロセッサ330)は、音波場内のユーザの場所および/または配向に対応する、シミュレートされたオーディオ信号を生成することができる。例えば、本明細書に議論されるように、1つ以上の仮想マイクロホン320は、ユーザの場所に位置付けられることができ、システム80(またはプロセッサ330)は、その場所で実際のマイクロホンによって検出されたであろう、オーディオ信号をシミュレートするために、音波場340の表現を使用することができる。
ブロック460では、仮想マイクロホン320からのシミュレートされたオーディオ信号は、例えば、ユーザによって装着されるヘッドホンを介して、VR/AR/MRシステム80のユーザに提供される。当然ながら、VR/AR/MR現実システム80のユーザは、環境内を動き回ることができる。したがって、ブロック440−460は、音波場内のユーザの位置および/または配向が変化するにつれて、反復的に繰り返されることができる。このように、システム300は、ユーザが実際に環境内304の任意の点に存在するかのように、およびそれを通して動き回り得るかのように、現実的オーディオ体験をVR/AR/MRシステム80のユーザに提供するために使用されることができる。
図5は、複数のユーザデバイス510を使用して、あるイベントのための音波場の表現を作成するためのウェブベースのシステム500を図示する。システム500は、コンサート等のイベントにおいてオーディオを捕捉するために、複数のユーザデバイス510を含む。ユーザデバイス510は、例えば、イベントの出席者に属する、スマートフォン、タブレットコンピュータ、ラップトップコンピュータ等である。図3に関して議論されるオーディオ/場所監視デバイス310と同様に、図5におけるユーザデバイス510はそれぞれ、少なくとも1つのマイクロホンと、GPS等の場所追跡ユニットとを含む。本システムはまた、ウェブベースのコンピュータサーバ530を含み、これは、インターネットを介して、ユーザデバイス510に通信可能に結合される。システム400の動作は、図6に関して議論される。
図6は、イベントの音波場を作成するための図5に示されるウェブベースのシステムの動作の例示的実施形態を図示する、フローチャートである。ブロック610では、コンピュータサーバ530は、ユーザによるダウンロードのためのモバイルデバイスアプリケーションを提供する。モバイルデバイスアプリケーションは、スマートフォンまたは他のユーザデバイス上にインストールされると、ユーザが、イベントに登録し、イベントの間、オーディオ信号および場所追跡信号を捕捉することを可能にするものである。図6は、コンピュータサーバ530がダウンロードのためのモバイルデバイスアプリケーションをもたらすことを示すが、アプリケーションはまた、第三者アプリケーション記憶等の他のサーバ上でのダウンロードのためにも提供され得る。
ブロック620では、ユーザは、アプリケーションをそのデバイス510にダウンロードし、それをインストールする。アプリケーションは、イベントのリストを提供することができ、これは、イベントの音波場を作成することに役立てるために使用されることができる。ユーザは、出席するであろうイベントを選択および登録する。
ブロック630では、イベントの間、アプリケーションは、ユーザが、その座席から、および/または会場を通して動き回るにつれて、オーディオを捕捉することを可能にする。アプリケーションはまた、例えば、デバイスの内蔵GPSを使用して、場所追跡信号を作成する。オーディオおよび場所追跡信号の捕捉を含む、デバイス410の動作は、オーディオ/場所監視デバイス310の動作に関して本明細書に説明される通りであり得る。
ブロック640では、ユーザのデバイスは、インターネットを介して、その捕捉されたオーディオ信号および場所追跡信号をコンピュータサーバ530にアップロードする。コンピュータサーバ530は、次いで、イベントのための音波場の表現を生成するために、オーディオ信号および場所追跡信号を処理する。本処理は、プロセッサ330の動作に関して本明細書に説明されるように行われることができる。
最後に、ブロック660では、コンピュータサーバ530は、シミュレートされたオーディオ信号(例えば、選択的に位置付けられる仮想マイクロホンから)をダウンロードのためにユーザにもたらす。仮想マイクロホンからのオーディオ信号は、本明細書で議論される技法を使用して、イベントのための音波場から作成されることができる。ユーザは、例えば、ウェブベースのインターフェースを介して、仮想マイクロホンの位置を選択することができる。このように、イベントの出席者は、モバイルアプリケーションを使用して、会場内の異なる場所から、異なる視点を用いて、イベントからのオーディオを体験することができる。アプリケーションは、したがって、コンサートまたは他のイベントにおける出席者の体験を向上させる。
コンピュータサーバ530は、まさに議論されたように、イベントのための音波場を計算してもよいが、他の実施形態は、ユーザがイベント会場における種々の場所からのオーディオを体験することを可能にするために、異なる技法を使用してもよい。例えば、イベントに登録されたユーザの密度に応じて、仮想マイクロホンからのオーディオ信号は、単に、仮想マイクロホンの場所の最近傍の登録されたユーザによって捕捉されたオーディオ信号に対応してもよい。イベントの間、仮想マイクロホンの位置が変化するにつれて、または最近傍の登録されたユーザが、登録されたユーザの移動に起因して変動するにつれて、仮想マイクロホンからのオーディオは、1人の登録されたユーザによって捕捉されたオーディオ信号から別の登録されたユーザによって捕捉されたオーディオ信号にクロスフェードすることによって合成されることができる。
(VR、AR、およびMRシステムを使用した環境音響情報の決定)
すでに議論されたように、VR、AR、およびMRシステムは、ディスプレイ62を使用して、仮想または実世界環境内にシミュレートされたテキスト、画像、およびオブジェクトを含む、仮想画像をユーザ60に提示する。仮想画像が現実的であるために、多くの場合、音効果および他のオーディオを伴う。本オーディオは、環境の音響性質が既知である場合、より現実的にされることができる。例えば、環境内に存在する音響反射体のタイプおよび場所が、既知である場合、適切なオーディオ処理が、オーディオ音をよりもっともらしく現実的にするように、実施され、残響または他の効果を追加することができる。
しかし、ARおよびMRシステムの場合、特に、シミュレートされた体験が生じる実世界環境の音響性質を決定することは、困難であり得る。壁、床、天井、およびオブジェクト等の音響反射体および吸収体のタイプ、場所、サイズ等を含む、環境の音響性質の知識がない場合、適切なオーディオ処理を適用し、現実的オーディオ環境を提供することは、困難であり得る。例えば、環境の音響性質の知識がない場合、その音効果をその環境内で本物であるようにさせるように、空間化をシミュレートされたオブジェクトに現実的に追加することは、困難であり得る。したがって、そのような音響特性がVR/AR/MRシステムにおいて使用される音響モデルおよびオーディオ処理において採用され得るように、環境の音響性質を決定するための改良された技法の必要がある。
図7は、環境704の音響性質を決定するために使用され得る、システム700の例示的実施形態を図示する。図7に示されるように、4人のユーザ60a、60b、60c、および60dが、環境704内に存在する。環境704は、例えば、ARまたはMR体験をホストするために使用されている、実世界環境であることができる。各ユーザ60は、関連付けられたデバイス80a、80b、80c、および80dを有する。いくつかの実施形態では、これらのデバイスは、個別のユーザ60が装着している、VR/AR/MRシステム80である。これらのシステム80はそれぞれ、マイクロホン712と、場所追跡ユニット714とを含むことができる。VR/AR/MRシステム80はまた、カメラ、ジャイロスコープ、加速度計、およびオーディオスピーカを含む、他のセンサを含むことができる。
システム700はまた、プロセッサ730を含み、これは、VR/AR/MRシステム80に通信可能に結合される。いくつかの実施形態では、プロセッサ730は、VR/AR/MRシステム80と別個のデバイスである一方、その他では、プロセッサ730は、これらのシステムのうちの1つのコンポーネントである。
各VR/AR/MRシステム80のマイクロホン712は、環境704内の音源のオーディオを捕捉するために使用されることができる。捕捉された音は、環境704の音響性質によって有意に影響されていない既知の源音と、源音が環境の音響性質によって影響された後の源音の環境改変バージョンの両方を含むことができる。これらの中には、ユーザ60によって発話された単語および発せられた他の音、VR/AR/MRシステム80のいずれかによって放出される音、および環境704内に存在し得る他の音源からの音がある。
一方、場所追跡ユニット714は、これらのオーディオ記録が行われている間、環境704内の各ユーザ60の場所を決定するために使用されることができる。加えて、ジャイロスコープおよび加速度計等のセンサが、発話中のユーザ60の配向および/または音を放出または捕捉するときのVR/AR/MRシステム80の配向を決定するために使用されることができる。オーディオ信号および場所追跡信号は、分析のために、プロセッサ730に送信されることができる。システム700の動作が、ここで、図8に関して説明されるであろう。
図8は、図7に示されるシステム700を使用して、環境704の1つ以上の音響性質を決定するための方法800の例示的実施形態を図示する、フローチャートである。方法800は、並行して行われる、ブロック810aおよび810bから開始する。これらのブロックでは、VR/AR/MRシステム80は、環境704全体を通して複数の分散場所においてオーディオ信号を捕捉する一方、また、その個別の場所および/または配向を追跡する。再び、各オーディオ信号は、典型的には、異なる時点で行われる複数の音測定から成るデジタル信号であってもよいが、アナログオーディオ信号もまた、使用されることができる。各場所追跡信号もまた、典型的には、デジタル信号であってもよく、これは、異なる時点で行われる複数の場所および/または配向測定を含む。VR/AR/MRシステム80からの結果として生じるオーディオ信号および場所追跡信号は両方とも、オーディオ記録の各インターバルが環境704内の具体的場所と関連付けられ得るように、適切にタイムスタンプされることができる。いくつかの実施形態では、音サンプルおよび場所サンプルは、時間的に規則的インターバルにおいて同期して行われるが、これは、要求されない。
ブロック830に関して後述される処理に関して、1)先験的に既知であるか、または源音が環境704の音響によって有意に影響されることに先立って捕捉されるかのいずれかである、既知の源音と、2)環境704の音響によって有意に影響された後に捕捉された環境改変音との少なくとも2つのタイプの音のオーディオコピーを有することが有利であり得る。
いくつかの実施形態では、VR/AR/MRシステム80のうちの1つ以上のものは、音響インパルスまたは1つ以上の音響トーン(例えば、ヒト聴覚のほぼ正常範囲である、約20Hz〜約20kHzの範囲内のトーンの周波数掃引)等の既知の源音をオーディオスピーカから放出するために使用されることができる。システム80aが、既知の源音を放出するために使用される場合、残りのシステム80b、80c、および80dのマイクロホンは、対応する環境改変音を入手するために使用されることができる。音響インパルスおよび周波数掃引は、ヒトの耳に可聴の周波数の全範囲を含む、広範囲の周波数にわたって、環境704の音響周波数応答を特性評価するために使用されることができるため、有利であり得る。しかし、ヒト聴覚の正常範囲外の音もまた、使用されることができる。例えば、超音波周波数が、VR/AR/MRシステム80によって放出され、環境704の1つ以上の音響および/または空間性質を特性評価するために使用されることができる。
VR/AR/MRシステム80自体によって放出される既知の源音を使用する代替として、ユーザ60のうちの1人以上の人によって発話された単語または発せられた他の音の捕捉されたオーディオもまた、既知の源音として使用されることができる。これは、ユーザ自身のマイクロホンを使用して、その発声を捕捉することによって行われることができる。例えば、ユーザ60aに対応するVR/AR/MRシステム80aのマイクロホン712aは、ユーザが発話するオーディオを捕捉するために使用されることができる。ユーザ60aからの音は、環境704内の音響反射体および/または吸収体によって有意に影響される前に、その独自のマイクロホン712aによって捕捉されるため、ユーザ自身のマイクロホンによるこれらの記録は、既知の源音記録として見なされ、使用されることができる。同じことは、その個別のマイクロホン712b、712c、および712dを使用して、他のユーザ60b、60c、および60dに関しても行われることができる。当然ながら、いくつかの処理が、これらのオーディオ信号上で実施され、ユーザの実際の発声とそのマイクロホンによってピックアップされたオーディオ信号との間の差異を補償することができる(そのような差異は、ユーザの口から放出される音波の経路内に直接位置しないユーザのマイクロホン712a等の影響によって生じ得る)。一方、1人のユーザからの発声は、他のユーザのマイクロホンによって捕捉され、発声の環境改変バージョンを取得することができる。例えば、ユーザ60aの発声は、残りのユーザ60b、60c、および60dの個別のVR/AR/MRシステム80b、80c、および80dによって捕捉されることができ、これらの記録は、環境改変音として使用されることができる。
このように、ユーザ60からの発声は、本明細書でさらに議論されるように、環境704の音響周波数応答および他の特性を決定するために使用されることができる。ユーザからの任意の所与の発声は、ヒト聴覚の全範囲を横断して環境704の周波数応答を完全に特性評価するために十分な多様な周波数成分を含まなくてもよいが、システム700は、新しい周波数成分を伴う発声がユーザ60によって行われるにつれて、環境の周波数応答を経時的に反復的に構築することができる。
音を使用して、環境704の周波数応答等の音響特性を決定することに加え、それらはまた、環境704の空間特性についての情報を決定するために使用されることができる。そのような空間情報は、例えば、環境内の特徴の場所、サイズ、および/または反射/吸収性性質を含んでもよい。これは、VR/AR/MRシステム80内の場所追跡ユニット714がまた、発声するときのユーザ60の配向または音を放出または捕捉するときのシステム80の配向を測定し得るため、遂行されることができる。すでに述べられたように、これは、ウェアラブルVR/AR/MRシステム80の中に構築される、ジャイロスコープ、加速度計、または他のセンサを使用して遂行されることができる。ユーザ60およびVR/AR/MRシステム80の配向が、測定され得るため、任意の特定の既知の源音または環境改変音の伝搬方向が、決定されることができる。本情報は、ソナー技法を使用して処理され、環境内の音響反射体および吸収体のサイズ、形状、場所、および/または他の特性を含む、環境704についての特性を決定することができる。
ブロック820では、プロセッサ730は、オーディオ信号および追跡信号をVR/AR/MRシステム80から受信する。信号は、コマンドに応じて、または具体的時間またはインターバルにおいて自動的に、アップロードされることができる。オーディオおよび場所追跡信号内のタイムスタンプデータに基づいて、プロセッサ730は、VR/AR/MRシステム80から受信された種々のオーディオおよび場所追跡信号を同期させることができる。
ブロック830では、プロセッサ730は、オーディオ信号および追跡信号を分析し、環境704の1つ以上の音響性質を決定する。これは、例えば、オーディオ信号からの1つ以上の既知の源音を識別することによって行われることができる。既知の源音は、環境704内の種々の場所から、そして種々の方向において、種々の時間に放出されたものであり得る。時間は、オーディオ信号内のタイムスタンプデータから決定されることができる一方、場所および方向は、場所追跡信号から決定されることができる。
プロセッサ730はまた、1つ以上の環境改変される音を識別し、各既知の源音と関連付けてもよい。プロセッサ730は、次いで、各既知の源音とその対応する環境改変される音とを比較することができる。周波数成分、位相、到着時間等における差異を分析することによって、プロセッサ730は、既知の源音に及ぼす環境の影響に基づいて、環境730の1つ以上の音響性質を決定することができる。プロセッサ730はまた、ソナー処理技法を使用して、環境704内のオブジェクトまたは表面の場所、サイズ、形状、および特性についての空間情報を決定することができる。
ブロック840では、プロセッサ730は、環境704の決定された音響性質をVR/AR/MRシステム80に返送することができる。これらの音響性質は、環境の音響反射/吸収性性質、空間内のオブジェクトのサイズ、場所、および形状等を含むことができる。複数の監視デバイスが存在するため、それらのデバイスのあるものは、各音源により近く、したがって、オリジナル源のより純粋な記録を取得可能である可能性が高いであろう。異なる場所における他の監視デバイスは、追加される可変程度の残響を伴って、音を捕捉するであろう。そのような信号を比較することによって、環境の残響性質の特性(例えば、周波数依存残響減衰時間)が、より現実的仮想音源を生成する際の将来的使用のために、査定および記憶されることができる。周波数依存残響時間は、監視デバイスの複数の位置に関して記憶されることができ、補間が、他の位置に関する値を取得するために使用されることができる。
次いで、ブロック850では、VR/AR/MRシステム80は、環境704の音響性質を使用して、VR/AR/MR体験の間、ユーザ60に再生されるオーディオ信号を向上させることができる。音響性質は、ユーザ60に表示される仮想オブジェクトに付随する音効果を向上させるために使用されることができる。例えば、VR/AR/MRシステム80のユーザの位置に対応する周波数依存残響は、VR/AR/MRシステム80を通して、仮想音源出力に適用されることができる。
(立体ビデオのためのオーディオ捕捉)
本明細書に説明されるタイプの分散型オーディオ/場所監視デバイスはまた、立体ビデオのためのオーディオを捕捉するために使用されることができる。図9は、立体ビデオ捕捉を実施するための例示的システム900を図示する。システム900は、環境904内に位置し、これは、典型的には、グリーンスクリーン部屋である。グリーンスクリーン部屋は、その色成分に基づいて、画像またはビデオを合成するための従来の撮影後ビデオ処理技法である、クロマキー合成において使用されるタイプの緑色画面によって囲繞される中心空間970を伴う、部屋である。
システム900は、複数のビデオカメラ980設定をグリーンスクリーン部屋904の周囲の異なる視点に含む。ビデオカメラ980はそれぞれ、撮影されることになる場面が実演される、グリーンスクリーン部屋904の中心部分970に向けられている。場面が実演されるにつれて、ビデオカメラ980は、それを場面の周囲360°範囲に及ぶ離散視点数から撮影する。これらのカメラ980からのビデオは、後に、プロセッサ930によって数学的に組み合わせられ、カメラ980によって実際に撮影されたものの間の視点を含む、環境904内の任意の所望の視点に位置するビデオカメラによって捕捉されたであろう、ビデオ画像をシミュレートすることができる。
本タイプの立体ビデオは、これらのシステムのユーザが任意の視点から撮影された場面を体験することを可能にし得るため、VR/AR/MRシステムにおいて効果的に使用されることができる。ユーザは、場面の周囲の仮想空間内を移動し、その対象がユーザの前に実際に存在するかのように、それを体験することができる。したがって、立体ビデオは、非常に没入型のVR/AR/MR体験を提供する可能性をもたらす。
しかし、立体ビデオに関する1つの難点は、本タイプの撮影プロセスの間、高品質オーディオを効果的に捕捉することが困難であり得ることである。これは、場面が多くの異なる視点から撮影されることを前提として、これらのマイクロホンをカメラ1080から効果的に隠すことが不可能であり得るため、ブームマイクロホンまたは俳優によって装着される小型マイクロホンを採用し得る、典型的オーディオ捕捉技法が、実行可能ではない場合があるためである。したがって、立体ビデオの撮影の間、オーディオを捕捉するための改良された技法の必要がある。
図10は、立体ビデオ捕捉の間、オーディオを捕捉するための例示的システム1000を図示する。図9におけるように、システム1000は、環境1004内に位置し、これは、典型的には、グリーンスクリーン部屋である得る。システム1000はまた、いくつかのビデオカメラ1080を含み、これは、グリーンスクリーン部屋1004の周囲の異なる視点に位置し、場面が実演されることになる部屋の中心部分1070に向けられている。
システム1000はまた、いくつかの分散型マイクロホン1012を含み、これも同様に、部屋1004の周囲に分散される。マイクロホン1012は、ビデオカメラ1080間に位置することができ(図示されるように)、それらは、ビデオカメラと共同設置されることができる、またはそれらは、任意の他の所望の構成を有することができる。図10は、マイクロホン1012が部屋1004の中心部分1070の完全360°網羅率を提供するように設定されることを示す。例えば、マイクロホン1012は、部屋1004の周縁の周囲に、少なくとも45°毎に、または少なくとも30°毎に、または少なくとも10°毎に、または少なくとも5°毎に、設置されてもよい。図10の2次元図面に図示されないが、マイクロホン1012はまた、3次元網羅率を提供するように設定されることができる。例えば、マイクロホン1012は、場面が実演される空間を包囲する、想像上の半球を中心としていくつかの離散場所に設置され得る。システム1000の動作が、ここで、図11に関して説明されるであろう。
図11は、図10に示されるシステム1000を使用して、立体ビデオのためのオーディオを捕捉するための例示的方法1100を示す、フローチャートである。ブロック1110aでは、場面が、グリーンスクリーン部屋1004において実演され、立体ビデオが、カメラ1080によって、複数の異なる視点から捕捉される。同時に、マイクロホン1012も同様に、種々の視点から場面のオーディオを捕捉する。これらのマイクロホン1012のそれぞれから記録されるオーディオ信号は、ブロック1120に示されるように、ビデオカメラ1080のそれぞれからのビデオ信号とともに、プロセッサ1030に提供されることができる。
個別のマイクロホン1012からのオーディオ信号はそれぞれ、場所情報でタグづけられることができ、これは、グリーンスクリーン部屋1004内のマイクロホン1012の位置を示す。ブロック1110bでは、本位置情報は、手動で、または本明細書に説明される種類の場所追跡ユニットを使用して自動的に、決定されることができる。例えば、各マイクロホン1012は、部屋1004内のマイクロホン1012の位置に関するデータをプロセッサ1030に提供し得る、場所追跡ユニットとともに、監視デバイスに提供されることができる。
ブロック1130では、プロセッサは、立体ビデオを生成するために要求される処理を実施する。故に、プロセッサは、任意の規定された視点に位置するカメラによって撮影されたであろうような場面を推定する、シミュレートされたビデオを生成することができる。ブロック1140では、プロセッサは、本明細書のいずれかに説明されるように、マイクロホン1012からのオーディオ信号を分析し、環境1104内の音波場の表現を生成する。音波場を使用して、プロセッサは、環境1104内の任意の所望の点に位置するマイクロホンによって捕捉されたであろうような任意のオーディオ信号を推定することができる。本能力は、すでに撮影された後、立体ビデオのためのマイクロホン設置を効果的かつ仮想的に規定する柔軟性を可能にする。
いくつかの実施形態では、音波場は、VR/AR/MR環境にマッピングされることができ、VR/AR/MRシステム80のためのオーディオを提供するために使用されることができる。まさに立体ビデオのための視点が、仮想環境内のユーザの現在の視点に基づいて改変され得るように、オーディオも改変され得る。いくつかの実施形態では、オーディオ聴取点は、ユーザが仮想空間内を動き回るにつれて、ビデオ視点と併せて移動されることができる。このように、ユーザは、場面の非常に現実的な再現を体験することができる。
(例示的実施形態)
システムであって、複数の分散型監視デバイスであって、各監視デバイスは、少なくとも1つのマイクロホンと、場所追跡ユニットとを備え、監視デバイスは、複数のオーディオ信号を音源から捕捉し、複数のオーディオ信号の捕捉の間、それぞれ、監視デバイスの場所を示す、複数の場所追跡信号を経時的に捕捉するように構成される、複数の分散型監視デバイスと、複数のオーディオ信号および複数の場所追跡信号を受信するように構成される、プロセッサであって、プロセッサはさらに、オーディオ信号および場所追跡信号に基づいて、音源によって作成された音波場の少なくとも一部の表現を生成するように構成される、プロセッサとを備える、システム。
複数の分散型監視デバイス間には、未知の相対的空間関係が存在する、前述の実施形態に記載のシステム。
複数の分散型監視デバイスは、モバイル式である、前述の実施形態のいずれかに記載のシステム。
場所追跡ユニットは、全地球測位システム(GPS)を備える、前述の実施形態のいずれかに記載のシステム。
音波場の表現は、複数回にわたるグリッド上の複数の空間点のそれぞれにおける音値を備える、前述の実施形態のいずれかに記載のシステム。
プロセッサはさらに、音源の場所を決定するように構成される、前述の実施形態のいずれかに記載のシステム。
プロセッサはさらに、音波場を仮想、拡張、または複合現実環境にマッピングするように構成される、前述の実施形態のいずれかに記載のシステム。
音波場の表現を使用して、プロセッサはさらに、音波場内の選択された場所における仮想オーディオ信号を決定するように構成され、仮想オーディオ信号は、選択された場所においてマイクロホンによって検出されたであろうオーディオ信号を推定する、前述の実施形態のいずれかに記載のシステム。
場所は、仮想または拡張現実環境内の仮想、拡張、または複合現実システムのユーザの場所に基づいて選択される、前述の実施形態のいずれかに記載のシステム。
デバイスであって、複数の分散型監視デバイスから、音源から捕捉された複数のオーディオ信号を受信するステップと、複数の監視デバイスから、複数の場所追跡信号を受信するステップであって、複数の場所追跡信号は、それぞれ、複数のオーディオ信号の捕捉の間、監視デバイスの場所を経時的に示す、ステップと、オーディオ信号および場所追跡信号に基づいて、音源によって作成された音波場の少なくとも一部の表現を生成するステップとを含む、方法を行うように構成される、プロセッサと、オーディオ信号および場所追跡信号を記憶するためのメモリとを備える、デバイス。
複数の分散型監視デバイス間には、未知の相対的空間関係が存在する、前述の実施形態に記載のデバイス。
複数の分散型監視デバイスは、モバイル式である、前述の実施形態のいずれかに記載のデバイス。
音波場の表現は、複数回にわたるグリッド上の複数の空間点のそれぞれにおける音値を備える、前述の実施形態のいずれかに記載のデバイス。
プロセッサはさらに、音源の場所を決定するように構成される、前述の実施形態のいずれかに記載のデバイス。
プロセッサはさらに、音波場を仮想、拡張、または複合現実環境にマッピングするように構成される、前述の実施形態のいずれかに記載のデバイス。
音波場の表現を使用して、プロセッサはさらに、音波場内の選択された場所における仮想オーディオ信号を決定するように構成され、仮想オーディオ信号は、選択された場所においてマイクロホンによって検出されたであろうオーディオ信号を推定する、前述の実施形態のいずれかに記載のデバイス。
場所は、仮想または拡張現実環境内の仮想、拡張、または複合現実システムのユーザの場所に基づいて選択される、前述の実施形態のいずれかに記載のデバイス。
方法であって、複数の分散型監視デバイスから、音源から捕捉された複数のオーディオ信号を受信するステップと、複数の監視デバイスから、複数の場所追跡信号を受信するステップであって、複数の場所追跡信号は、それぞれ、複数のオーディオ信号の捕捉の間、監視デバイスの場所を経時的に示す、ステップと、オーディオ信号および場所追跡信号に基づいて、音源によって作成された音波場の少なくとも一部の表現を生成するステップとを含む、方法。
複数の分散型監視デバイス間には、未知の相対的空間関係が存在する、前述の実施形態に記載の方法。
複数の分散型監視デバイスは、モバイル式である、前述の実施形態のいずれかに記載の方法。
音波場の表現は、複数回にわたるグリッド上の複数の空間点のそれぞれにおける音値を備える、前述の実施形態のいずれかに記載の方法。
音源の場所を決定するステップをさらに含む、前述の実施形態のいずれかに記載の方法。
音波場を仮想、拡張、または複合現実環境にマッピングするステップをさらに含む、前述の実施形態のいずれかに記載の方法。
音波場の表現を使用して、音波場内の選択された場所における仮想オーディオ信号を決定するステップであって、仮想オーディオ信号は、選択された場所においてマイクロホンによって検出されたであろうオーディオ信号を推定する、ステップをさらに含む、前述の実施形態のいずれかに記載の方法。
場所は、仮想または拡張現実環境内の仮想、拡張、または複合現実システムのユーザの場所に基づいて選択される、前述の実施形態のいずれかに記載の方法。
システムであって、システムは、複数の分散型監視デバイスであって、各監視デバイスは、少なくとも1つのマイクロホンと、場所追跡ユニットとを備え、監視デバイスは、環境内の複数のオーディオ信号を捕捉し、複数のオーディオ信号の捕捉の間、それぞれ、監視デバイスの場所を示す、複数の場所追跡信号を経時的に捕捉するように構成される、複数の分散型監視デバイスと、複数のオーディオ信号および複数の場所追跡信号を受信するように構成される、プロセッサであって、プロセッサはさらに、オーディオ信号および場所追跡信号に基づいて、環境の1つ以上の音響性質を決定するように構成される、プロセッサとを備える、システム。
1つ以上の音響性質は、環境内の音響反射率または吸収率または環境の音響周波数応答を備える、前述の実施形態に記載のシステム。
複数の分散型監視デバイス間には、未知の相対的空間関係が存在する、前述の実施形態のいずれかに記載のシステム。
複数の分散型監視デバイスは、モバイル式である、前述の実施形態のいずれかに記載のシステム。
場所追跡ユニットは、全地球測位システム(GPS)を備える、前述の実施形態のいずれかに記載のシステム。
場所追跡信号はまた、監視デバイスの個別の配向についての情報を備える、前述の実施形態のいずれかに記載のシステム。
複数の分散型監視デバイスは、仮想現実、拡張現実、または複合現実システムを備える、前述の実施形態のいずれかに記載のシステム。
プロセッサはさらに、複数のオーディオ信号内の既知の源音を識別するように構成される、前述の実施形態のいずれかに記載のシステム。
既知の源音は、仮想現実、拡張現実、または複合現実システムのうちの1つによって再生される音を備える、前述の実施形態のいずれかに記載のシステム。
既知の源音は、音響インパルスまたは音響トーンの掃引を備える、前述の実施形態のいずれかに記載のシステム。
既知の源音は、ユーザによって装着される仮想現実、拡張現実、または複合現実システムによって捕捉されたユーザの発声を備える、前述の実施形態のいずれかに記載のシステム。
プロセッサはさらに、1つ以上の環境改変音を識別し、既知の源音と関連付けるように構成される、前述の実施形態のいずれかに記載のシステム。
プロセッサはさらに、環境の1つ以上の音響性質を、複数の仮想現実、拡張現実、または複合現実システムに送信するように構成される、前述の実施形態のいずれかに記載のシステム。
複数の仮想現実、拡張現実、または複合現実システムは、1つ以上の音響性質を使用して、仮想現実、拡張現実、または複合現実体験の間、ユーザに再生されるオーディオを向上させるように構成される、前述の実施形態のいずれかに記載のシステム。
デバイスであって、複数の分散型監視デバイスから、環境内で捕捉された複数のオーディオ信号を受信するステップと、複数の監視デバイスから、複数の場所追跡信号を受信するステップであって、複数の場所追跡信号は、それぞれ、複数のオーディオ信号の捕捉の間、監視デバイスの場所を経時的に示す、ステップと、オーディオ信号および場所追跡信号に基づいて、環境の1つ以上の音響性質を決定するステップとを含む、方法を行うように構成される、プロセッサと、オーディオ信号および場所追跡信号を記憶するためのメモリとを備える、デバイス。
1つ以上の音響性質は、環境内の音響反射率または吸収率または環境の音響周波数応答を備える、前述の実施形態に記載のデバイス。
場所追跡信号はまた、監視デバイスの個別の配向についての情報を備える、前述の実施形態のいずれかに記載のデバイス。
複数の分散型監視デバイスは、仮想現実、拡張現実、または複合現実システムを備える、前述の実施形態のいずれかに記載のデバイス。
プロセッサはさらに、複数のオーディオ信号内の既知の源音を識別するように構成される、前述の実施形態のいずれかに記載のデバイス。
既知の源音は、仮想現実、拡張現実、または複合現実システムのうちの1つによって再生される音を備える、前述の実施形態のいずれかに記載のデバイス。
既知の源音は、音響インパルスまたは音響トーンの掃引を備える、前述の実施形態のいずれかに記載のデバイス。
既知の源音は、ユーザによって装着される仮想現実、拡張現実、または複合現実システムによって捕捉されたユーザの発声を備える、前述の実施形態のいずれかに記載のデバイス。
プロセッサはさらに、1つ以上の環境改変音を識別し、既知の源音と関連付けるように構成される、前述の実施形態のいずれかに記載のデバイス。
プロセッサはさらに、環境の1つ以上の音響性質を、複数の仮想現実、拡張現実、または複合現実システムに送信するように構成される、前述の実施形態のいずれかに記載のデバイス。
方法であって、複数の分散型監視デバイスから、環境内で捕捉された複数のオーディオ信号を受信するステップと、複数の監視デバイスから、複数の場所追跡信号を受信するステップであって、複数の場所追跡信号は、それぞれ、複数のオーディオ信号の捕捉の間、監視デバイスの場所を経時的に示す、ステップと、オーディオ信号および場所追跡信号に基づいて、環境の1つ以上の音響性質を決定するステップとを含む、方法。
1つ以上の音響性質は、環境内の音響反射率または吸収率または環境の音響周波数応答を備える、前述の実施形態に記載の方法。
場所追跡信号はまた、監視デバイスの個別の配向についての情報を備える、前述の実施形態のいずれかに記載の方法。
複数の分散型監視デバイスは、仮想現実、拡張現実、または複合現実システムを備える、前述の実施形態のいずれかに記載の方法。
複数のオーディオ信号内の既知の源音を識別するステップをさらに含む、前述の実施形態のいずれかに記載の方法。
既知の源音は、仮想現実、拡張現実、または複合現実システムのうちの1つによって再生される音を備える、前述の実施形態のいずれかに記載の方法。
既知の源音は、音響インパルスまたは音響トーンの掃引を備える、前述の実施形態のいずれかに記載の方法。
既知の源音は、ユーザによって装着される仮想現実、拡張現実、または複合現実システムによって捕捉されたユーザの発声を備える、前述の実施形態のいずれかに記載の方法。
1つ以上の環境改変音を識別し、既知の源音と関連付けるステップをさらに含む、前述の実施形態のいずれかに記載の方法。
環境の1つ以上の音響性質を、複数の仮想現実、拡張現実、または複合現実システムに送信するステップをさらに含む、前述の実施形態のいずれかに記載の方法。
システムであって、空間の中心部分の複数のビデオを複数の異なる視点から捕捉するように、空間の周縁を中心として位置する、複数の分散型ビデオカメラと、複数のビデオの捕捉の間、複数のオーディオ信号を捕捉するように、空間の周縁を中心として位置する、複数の分散型マイクロホンと、複数のビデオ、複数のオーディオ信号、および空間内の各マイクロホンの位置についての場所情報を受信するように構成される、プロセッサであって、プロセッサはさらに、オーディオ信号および場所情報に基づいて、空間に関する音波場の少なくとも一部の表現を生成するように構成される、プロセッサとを備える、システム。
複数のマイクロホンは、空間の360°を提供するように離間される、前述の実施形態に記載のシステム。
音波場の表現は、複数回にわたるグリッド上の複数の空間点のそれぞれにおける音値を備える、前述の実施形態のいずれかに記載のシステム。
プロセッサはさらに、音波場を仮想、拡張、または複合現実環境にマッピングするように構成される、前述の実施形態のいずれかに記載のシステム。
音波場の表現を使用して、プロセッサはさらに、音波場内の選択された場所における仮想オーディオ信号を決定するように構成され、仮想オーディオ信号は、選択された場所においてマイクロホンによって検出されたであろうオーディオ信号を推定する、前述の実施形態のいずれかに記載のシステム。
場所は、仮想または拡張現実環境内の仮想、拡張、または複合現実システムのユーザの場所に基づいて選択される、前述の実施形態のいずれかに記載のシステム。
デバイスであって、複数の分散型ビデオカメラから、複数の視点から捕捉された場面の複数のビデオを受信するステップと、複数の分散型マイクロホンから、複数のビデオの捕捉の間に捕捉された複数のオーディオ信号を受信するステップと、複数のマイクロホンの位置についての場所情報を受信するステップと、オーディオ信号および場所情報に基づいて、音波場の少なくとも一部の表現を生成するステップとを含む、方法を行うように構成される、プロセッサと、オーディオ信号および場所追跡信号を記憶するためのメモリとを備える、デバイス。
複数のマイクロホンは、空間の360°を提供するように離間される、前述の実施形態に記載のシステム。
音波場の表現は、複数回にわたるグリッド上の複数の空間点のそれぞれにおける音値を備える、前述の実施形態のいずれかに記載のシステム。
プロセッサはさらに、音波場を仮想、拡張、または複合現実環境にマッピングするように構成される、前述の実施形態のいずれかに記載のシステム。
音波場の表現を使用して、プロセッサはさらに、音波場内の選択された場所における仮想オーディオ信号を決定するように構成され、仮想オーディオ信号は、選択された場所においてマイクロホンによって検出されたであろうオーディオ信号を推定する、前述の実施形態のいずれかに記載のシステム。
場所は、仮想または拡張現実環境内の仮想、拡張、または複合現実システムのユーザの場所に基づいて選択される、前述の実施形態のいずれかに記載のシステム。
方法であって、複数の分散型ビデオカメラから、複数の視点から捕捉された場面の複数のビデオを受信するステップと、複数の分散型マイクロホンから、複数のビデオの捕捉の間に捕捉された複数のオーディオ信号を受信するステップと、複数のマイクロホンの位置についての場所情報を受信するステップと、オーディオ信号および場所情報に基づいて、音波場の少なくとも一部の表現を生成するステップとを含む、方法。
複数のマイクロホンは、空間の360°を提供するように離間される、前述の実施形態に記載の方法。
音波場の表現は、複数回にわたるグリッド上の複数の空間点のそれぞれにおける音値を備える、前述の実施形態のいずれかに記載の方法。
音波場を仮想、拡張、または複合現実環境にマッピングするステップをさらに含む、前述の実施形態のいずれかに記載の方法。
音波場の表現を使用して、音波場内の選択された場所における仮想オーディオ信号を決定するステップであって、仮想オーディオ信号は、選択された場所においてマイクロホンによって検出されたであろうオーディオ信号を推定するステップをさらに含む、前述の実施形態のいずれかに記載の方法。
場所は、仮想または拡張現実環境内の仮想、拡張、または複合現実システムのユーザの場所に基づいて選択される、前述の実施形態のいずれかに記載の方法。
(結論)
本開示を要約する目的のために、本発明のある側面、利点、および特徴が、本明細書に説明されている。必ずしも全てのそのような利点が、本発明の任意の特定の実施形態に従って達成され得るわけではないことを理解されたい。したがって、本発明は、本明細書で教示または提案され得るような他の利点を必ずしも達成することなく、本明細書で教示されるような1つの利点または利点群を達成または最適化する様式で、具現化または実施されてもよい。
実施形態は、付随の図面に関連して説明されている。しかしながら、図が一定の縮尺で描かれていないことを理解されたい。距離、角度等は、例証的にすぎず、必ずしも図示されるデバイスの実際の寸法およびレイアウトと正確な関係を持つわけではない。加えて、前述の実施形態は、当業者が本明細書に説明されるデバイス、システム、方法等を作製して使用することを可能にする詳細のレベルで説明されている。多種多様な変形例が、可能である。構成要素、要素、および/またはステップは、改変、追加、除去、または再編成されてもよい。
本明細書に説明されるデバイスおよび方法は、有利なこととして、例えば、コンピュータソフトウェア、ハードウェア、ファームウェア、またはソフトウェア、ハードウェア、およびファームウェアの任意の組み合わせを使用して、少なくとも部分的に実装されることができる。ソフトウェアモジュールは、本明細書に説明される機能を果たすために、コンピュータのメモリの中に記憶されたコンピュータ実行可能コードを備えることができる。いくつかの実施形態では、コンピュータ実行可能コードは、1つ以上の汎用コンピュータによって実行される。しかしながら、当業者は、本開示に照らして、汎用コンピュータ上で実行されるソフトウェアを使用して実装され得る、任意のモジュールもまた、ハードウェア、ソフトウェア、またはファームウェアの異なる組み合わせを使用して実装され得ることを理解するであろう。例えば、そのようなモジュールは、集積回路の組み合わせを使用して、完全にハードウェアで実装されることができる。代替として、または加えて、そのようなモジュールは、汎用コンピュータによってではなく、本明細書に説明される特定の機能を果たすように設計される特殊化コンピュータを使用して、完全または部分的に実装されることができる。加えて、少なくとも部分的にコンピュータソフトウェアによって実施される、または実施され得る方法が説明される場合、そのような方法は、コンピュータまたは他の処理デバイスによって読み取られたときに方法を実施させる、非一過性のコンピュータ可読媒体(例えば、CDまたはDVD等の光ディスク、ハードディスクドライブ、フラッシュメモリ、ディスケット、または同等物)上に提供され得ることを理解されたい。
ある実施形態が、明示的に説明されているが、他の実施形態も、本開示に基づいて当業者に明白となるであろう。

Claims (25)

  1. システムであって、
    複数の分散型監視デバイスであって、各監視デバイスは、少なくとも1つのマイクロホンと、場所追跡ユニットとを備え、前記監視デバイスは、複数のオーディオ信号を音源から捕捉し、前記複数のオーディオ信号の捕捉の間、それぞれ、前記監視デバイスの場所を示す、複数の場所追跡信号を経時的に捕捉するように構成される、複数の分散型監視デバイスと、
    前記複数のオーディオ信号および前記複数の場所追跡信号を受信するように構成されるプロセッサであって、前記プロセッサは、さらに、前記オーディオ信号および前記場所追跡信号に基づいて、前記音源によって作成された音波場の少なくとも一部の表現を生成するように構成される、プロセッサと
    を備える、システム。
  2. 前記複数の分散型監視デバイス間には、未知の相対的空間関係が存在する、請求項1に記載のシステム。
  3. 前記複数の分散型監視デバイスは、モバイル式である、請求項2に記載のシステム。
  4. 前記場所追跡ユニットは、全地球測位システム(GPS)を備える、請求項1に記載のシステム。
  5. 前記音波場の表現は、複数回にわたるグリッド上の複数の空間点のそれぞれにおける音値を備える、請求項1に記載のシステム。
  6. 前記プロセッサはさらに、前記音源の場所を決定するように構成される、請求項1に記載のシステム。
  7. 前記プロセッサはさらに、前記音波場を仮想、拡張、または複合現実環境にマッピングするように構成される、請求項1に記載のシステム。
  8. 前記音波場の表現を使用して、前記プロセッサはさらに、前記音波場内の選択された場所における仮想オーディオ信号を決定するように構成され、前記仮想オーディオ信号は、前記選択された場所においてマイクロホンによって検出されたであろうオーディオ信号を推定する、請求項1に記載のシステム。
  9. 前記場所は、仮想または拡張現実環境内の仮想、拡張、または複合現実システムのユーザの場所に基づいて選択される、請求項8に記載のシステム。
  10. デバイスであって、
    方法を行うように構成されるプロセッサであって、前記方法は、
    複数の分散型監視デバイスから、音源から捕捉された複数のオーディオ信号を受信することと、
    前記複数の監視デバイスから、複数の場所追跡信号を受信することであって、前記複数の場所追跡信号は、それぞれ、前記複数のオーディオ信号の捕捉の間、前記監視デバイスの場所を経時的に示す、ことと、
    前記オーディオ信号および前記場所追跡信号に基づいて、前記音源によって作成された音波場の少なくとも一部の表現を生成することと
    を含む、プロセッサと、
    前記オーディオ信号および前記場所追跡信号を記憶するためのメモリと
    を備える、デバイス。
  11. 前記複数の分散型監視デバイス間には、未知の相対的空間関係が存在する、請求項10に記載のデバイス。
  12. 前記複数の分散型監視デバイスは、モバイル式である、請求項11に記載のデバイス。
  13. 前記音波場の表現は、複数回にわたるグリッド上の複数の空間点のそれぞれにおける音値を備える、請求項10に記載のデバイス。
  14. 前記プロセッサはさらに、前記音源の場所を決定するように構成される、請求項10に記載のデバイス。
  15. 前記プロセッサはさらに、前記音波場を仮想、拡張、または複合現実環境にマッピングするように構成される、請求項10に記載のデバイス。
  16. 前記音波場の表現を使用して、前記プロセッサはさらに、前記音波場内の選択された場所における仮想オーディオ信号を決定するように構成され、前記仮想オーディオ信号は、前記選択された場所においてマイクロホンによって検出されたであろうオーディオ信号を推定する、請求項10に記載のデバイス。
  17. 前記場所は、仮想または拡張現実環境内の仮想、拡張、または複合現実システムのユーザの場所に基づいて選択される、請求項16に記載のデバイス。
  18. 方法であって、
    複数の分散型監視デバイスから、音源から捕捉された複数のオーディオ信号を受信することと、
    前記複数の監視デバイスから、複数の場所追跡信号を受信することであって、前記複数の場所追跡信号は、それぞれ、前記複数のオーディオ信号の捕捉の間、前記監視デバイスの場所を経時的に示す、ことと、
    前記オーディオ信号および前記場所追跡信号に基づいて、前記音源によって作成された音波場の少なくとも一部の表現を生成することと
    を含む、方法。
  19. 前記複数の分散型監視デバイス間には、未知の相対的空間関係が存在する、請求項18に記載の方法。
  20. 前記複数の分散型監視デバイスは、モバイル式である、請求項19に記載の方法。
  21. 前記音波場の表現は、複数回にわたるグリッド上の複数の空間点のそれぞれにおける音値を備える、請求項18に記載の方法。
  22. 前記音源の場所を決定することをさらに含む、請求項18に記載の方法。
  23. 前記音波場を仮想、拡張、または複合現実環境にマッピングすることをさらに含む、請求項18に記載の方法。
  24. 前記音波場の表現を使用して、前記音波場内の選択された場所における仮想オーディオ信号を決定することであって、前記仮想オーディオ信号は、前記選択された場所においてマイクロホンによって検出されたであろうオーディオ信号を推定する、ことをさらに含む、請求項18に記載の方法。
  25. 前記場所は、仮想または拡張現実環境内の仮想、拡張、または複合現実システムのユーザの場所に基づいて選択される、請求項24に記載の方法。
JP2019528706A 2016-12-05 2017-12-04 仮想現実(vr)、拡張現実(ar)、および複合現実(mr)システムのための分散型オーディオ捕捉技法 Active JP7125397B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022128787A JP2022163173A (ja) 2016-12-05 2022-08-12 仮想現実(vr)、拡張現実(ar)、および複合現実(mr)システムのための分散型オーディオ捕捉技法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201662430268P 2016-12-05 2016-12-05
US62/430,268 2016-12-05
PCT/US2017/064540 WO2018106605A1 (en) 2016-12-05 2017-12-04 Distributed audio capturing techniques for virtual reality (vr), augmented reality (ar), and mixed reality (mr) systems

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022128787A Division JP2022163173A (ja) 2016-12-05 2022-08-12 仮想現実(vr)、拡張現実(ar)、および複合現実(mr)システムのための分散型オーディオ捕捉技法

Publications (2)

Publication Number Publication Date
JP2020501428A true JP2020501428A (ja) 2020-01-16
JP7125397B2 JP7125397B2 (ja) 2022-08-24

Family

ID=62244248

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019528706A Active JP7125397B2 (ja) 2016-12-05 2017-12-04 仮想現実(vr)、拡張現実(ar)、および複合現実(mr)システムのための分散型オーディオ捕捉技法
JP2022128787A Pending JP2022163173A (ja) 2016-12-05 2022-08-12 仮想現実(vr)、拡張現実(ar)、および複合現実(mr)システムのための分散型オーディオ捕捉技法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022128787A Pending JP2022163173A (ja) 2016-12-05 2022-08-12 仮想現実(vr)、拡張現実(ar)、および複合現実(mr)システムのための分散型オーディオ捕捉技法

Country Status (9)

Country Link
US (2) US10531220B2 (ja)
EP (1) EP3549030A4 (ja)
JP (2) JP7125397B2 (ja)
KR (2) KR102502647B1 (ja)
CN (1) CN110249640B (ja)
AU (2) AU2017372721A1 (ja)
CA (1) CA3045512A1 (ja)
IL (2) IL266889B (ja)
WO (1) WO2018106605A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10531220B2 (en) 2016-12-05 2020-01-07 Magic Leap, Inc. Distributed audio capturing techniques for virtual reality (VR), augmented reality (AR), and mixed reality (MR) systems
CN106774930A (zh) * 2016-12-30 2017-05-31 中兴通讯股份有限公司 一种数据处理方法、装置及采集设备
AU2018353008B2 (en) 2017-10-17 2023-04-20 Magic Leap, Inc. Mixed reality spatial audio
JP2021514081A (ja) 2018-02-15 2021-06-03 マジック リープ, インコーポレイテッドMagic Leap,Inc. 複合現実仮想反響音
US10585641B2 (en) * 2018-04-30 2020-03-10 Qualcomm Incorporated Tagging a sound in a virtual environment
EP3797529A1 (en) * 2018-05-23 2021-03-31 Koninklijke KPN N.V. Adapting acoustic rendering to image-based object
CN111865771B (zh) * 2018-08-08 2023-01-20 创新先进技术有限公司 消息发送方法及装置和电子设备
CN113039815B (zh) * 2018-11-09 2022-11-11 候本株式会社 声音生成方法及执行其的装置
US11221820B2 (en) * 2019-03-20 2022-01-11 Creative Technology Ltd System and method for processing audio between multiple audio spaces
GB2582952B (en) * 2019-04-10 2022-06-15 Sony Interactive Entertainment Inc Audio contribution identification system and method
US11399253B2 (en) 2019-06-06 2022-07-26 Insoundz Ltd. System and methods for vocal interaction preservation upon teleportation
US11082756B2 (en) 2019-06-25 2021-08-03 International Business Machines Corporation Crowdsource recording and sharing of media files
CN114586382A (zh) * 2019-10-25 2022-06-03 奇跃公司 混响指纹估计
KR102334091B1 (ko) * 2020-03-20 2021-12-02 주식회사 코클리어닷에이아이 오디오 인식을 수행하는 증강현실 디바이스 및 그의 제어방법
WO2024101683A1 (ko) * 2022-11-09 2024-05-16 삼성전자주식회사 오디오 신호를 레코딩하기 위한 웨어러블 장치 및 그 방법

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120307048A1 (en) * 2011-05-30 2012-12-06 Sony Ericsson Mobile Communications Ab Sensor-based placement of sound in video recording
JP2013502183A (ja) * 2009-08-14 2013-01-17 エスアールエス・ラブス・インコーポレーテッド オブジェクト指向オーディオストリーミングシステム
JP2014501945A (ja) * 2010-12-03 2014-01-23 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ 幾何ベースの空間オーディオ符号化のための装置および方法
JP2014049885A (ja) * 2012-08-30 2014-03-17 Nippon Telegr & Teleph Corp <Ntt> 音響再生装置とその方法とプログラム
US20140126758A1 (en) * 2011-06-24 2014-05-08 Bright Minds Holding B.V. Method and device for processing sound data
US20150142454A1 (en) * 2013-11-15 2015-05-21 Nokia Corporation Handling overlapping audio recordings
US20150221334A1 (en) * 2013-11-05 2015-08-06 LiveStage°, Inc. Audio capture for multi point image capture systems
JP2016092772A (ja) * 2014-11-11 2016-05-23 ソニー株式会社 信号処理装置及びその信号処理方法、並びにプログラム
US20160150340A1 (en) * 2012-12-27 2016-05-26 Avaya Inc. Immersive 3d sound space for searching audio

Family Cites Families (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6222525B1 (en) 1992-03-05 2001-04-24 Brad A. Armstrong Image controllers with sheet connected sensors
US5670988A (en) 1995-09-05 1997-09-23 Interlink Electronics, Inc. Trigger operated electronic device
US20030007648A1 (en) * 2001-04-27 2003-01-09 Christopher Currell Virtual audio system and techniques
AUPR647501A0 (en) 2001-07-19 2001-08-09 Vast Audio Pty Ltd Recording a three dimensional auditory scene and reproducing it for the individual listener
USD514570S1 (en) 2004-06-24 2006-02-07 Microsoft Corporation Region of a fingerprint scanning device with an illuminated ring
US20070081123A1 (en) 2005-10-07 2007-04-12 Lewis Scott W Digital eyewear
US8696113B2 (en) 2005-10-07 2014-04-15 Percept Technologies Inc. Enhanced optical and perceptual digital eyewear
US11428937B2 (en) 2005-10-07 2022-08-30 Percept Technologies Enhanced optical and perceptual digital eyewear
US8094838B2 (en) * 2007-01-15 2012-01-10 Eastman Kodak Company Voice command of audio emitting device
US20090262137A1 (en) * 2008-01-10 2009-10-22 Walker Jay S Systems and methods for presenting prediction in a broadcast
JP5018520B2 (ja) 2008-02-01 2012-09-05 富士通株式会社 情報処理装置、情報処理方法及びコンピュータプログラム
US9185361B2 (en) * 2008-07-29 2015-11-10 Gerald Curry Camera-based tracking and position determination for sporting events using event information and intelligence data extracted in real-time from position information
US8243970B2 (en) 2008-08-11 2012-08-14 Telefonaktiebolaget L M Ericsson (Publ) Virtual reality sound for advanced multi-media applications
US9253560B2 (en) * 2008-09-16 2016-02-02 Personics Holdings, Llc Sound library and method
US8767968B2 (en) 2010-10-13 2014-07-01 Microsoft Corporation System and method for high-precision 3-dimensional audio for augmented reality
US9304319B2 (en) 2010-11-18 2016-04-05 Microsoft Technology Licensing, Llc Automatic focus improvement for augmented reality displays
AU2011348122A1 (en) 2010-12-24 2013-07-11 Magic Leap Inc. An ergonomic head mounted display device and optical system
US10156722B2 (en) 2010-12-24 2018-12-18 Magic Leap, Inc. Methods and systems for displaying stereoscopy with a freeform optical system with addressable focus for virtual and augmented reality
CA2835120C (en) 2011-05-06 2019-05-28 Magic Leap, Inc. Massive simultaneous remote digital presence world
GB2493029B (en) * 2011-07-22 2013-10-23 Mikko Pekka Vainiala Method and apparatus for impulse response measurement and simulation
US10795448B2 (en) 2011-09-29 2020-10-06 Magic Leap, Inc. Tactile glove for human-computer interaction
AU2012348348B2 (en) 2011-10-28 2017-03-30 Magic Leap, Inc. System and method for augmented and virtual reality
CN104067316B (zh) 2011-11-23 2017-10-27 奇跃公司 三维虚拟和增强现实显示系统
US9131305B2 (en) 2012-01-17 2015-09-08 LI Creative Technologies, Inc. Configurable three-dimensional sound system
WO2013149867A1 (en) 2012-04-02 2013-10-10 Sonicemotion Ag Method for high quality efficient 3d sound reproduction
KR102223290B1 (ko) 2012-04-05 2021-03-04 매직 립, 인코포레이티드 능동 포비에이션 능력을 갖는 와이드-fov(field of view) 이미지 디바이스들
NZ702897A (en) 2012-06-11 2017-03-31 Magic Leap Inc Multiple depth plane three-dimensional display using a wave guide reflector array projector
US9671566B2 (en) 2012-06-11 2017-06-06 Magic Leap, Inc. Planar waveguide apparatus with diffraction element(s) and system employing same
US9740006B2 (en) 2012-09-11 2017-08-22 Magic Leap, Inc. Ergonomic head mounted display device and optical system
US20140100839A1 (en) 2012-09-13 2014-04-10 David Joseph Arendash Method for controlling properties of simulated environments
NZ710096A (en) 2013-01-15 2018-11-30 Magic Leap Inc Ultra-high resolution scanning fiber display
EP2946572B1 (en) * 2013-01-17 2018-09-05 Koninklijke Philips N.V. Binaural audio processing
KR102387314B1 (ko) 2013-03-11 2022-04-14 매직 립, 인코포레이티드 증강 및 가상 현실을 위한 시스템 및 방법
CN105229719B (zh) 2013-03-15 2018-04-27 奇跃公司 显示系统和方法
US9874749B2 (en) 2013-11-27 2018-01-23 Magic Leap, Inc. Virtual and augmented reality systems and methods
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
US9483228B2 (en) * 2013-08-26 2016-11-01 Dolby Laboratories Licensing Corporation Live engine
KR20230098359A (ko) 2013-10-16 2023-07-03 매직 립, 인코포레이티드 조절가능한 동공간 거리를 가지는 가상 또는 증강 현실 헤드셋들
KR102378457B1 (ko) 2013-11-27 2022-03-23 매직 립, 인코포레이티드 가상 및 증강 현실 시스템들 및 방법들
US9857591B2 (en) 2014-05-30 2018-01-02 Magic Leap, Inc. Methods and system for creating focal planes in virtual and augmented reality
KR102177133B1 (ko) 2014-01-31 2020-11-10 매직 립, 인코포레이티드 멀티-포컬 디스플레이 시스템 및 방법
CA2938264C (en) 2014-01-31 2020-09-22 Magic Leap, Inc. Multi-focal display system and method
US10203762B2 (en) 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
AU2015255652B2 (en) 2014-05-09 2018-03-29 Google Llc Systems and methods for using eye signals with secure mobile communications
USD759657S1 (en) 2014-05-19 2016-06-21 Microsoft Corporation Connector with illumination region
NZ727350A (en) 2014-05-30 2020-08-28 Magic Leap Inc Methods and systems for generating virtual content display with a virtual or augmented reality apparatus
USD752529S1 (en) 2014-06-09 2016-03-29 Comcast Cable Communications, Llc Electronic housing with illuminated region
CN104407700A (zh) * 2014-11-27 2015-03-11 曦煌科技(北京)有限公司 一种移动头戴式虚拟现实和增强现实的设备
USD758367S1 (en) 2015-05-14 2016-06-07 Magic Leap, Inc. Virtual reality headset
USD805734S1 (en) 2016-03-04 2017-12-26 Nike, Inc. Shirt
USD794288S1 (en) 2016-03-11 2017-08-15 Nike, Inc. Shoe with illuminable sole light sequence
FR3049084B1 (fr) * 2016-03-15 2022-11-11 Fraunhofer Ges Forschung Dispositif de codage pour le traitement d'un signal d'entree et dispositif de decodage pour le traitement d'un signal code
US10042604B2 (en) * 2016-07-01 2018-08-07 Metrik LLC Multi-dimensional reference element for mixed reality environments
US10531220B2 (en) 2016-12-05 2020-01-07 Magic Leap, Inc. Distributed audio capturing techniques for virtual reality (VR), augmented reality (AR), and mixed reality (MR) systems

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013502183A (ja) * 2009-08-14 2013-01-17 エスアールエス・ラブス・インコーポレーテッド オブジェクト指向オーディオストリーミングシステム
JP2014501945A (ja) * 2010-12-03 2014-01-23 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ 幾何ベースの空間オーディオ符号化のための装置および方法
US20120307048A1 (en) * 2011-05-30 2012-12-06 Sony Ericsson Mobile Communications Ab Sensor-based placement of sound in video recording
US20140126758A1 (en) * 2011-06-24 2014-05-08 Bright Minds Holding B.V. Method and device for processing sound data
JP2014049885A (ja) * 2012-08-30 2014-03-17 Nippon Telegr & Teleph Corp <Ntt> 音響再生装置とその方法とプログラム
US20160150340A1 (en) * 2012-12-27 2016-05-26 Avaya Inc. Immersive 3d sound space for searching audio
US20150221334A1 (en) * 2013-11-05 2015-08-06 LiveStage°, Inc. Audio capture for multi point image capture systems
US20150142454A1 (en) * 2013-11-15 2015-05-21 Nokia Corporation Handling overlapping audio recordings
JP2016092772A (ja) * 2014-11-11 2016-05-23 ソニー株式会社 信号処理装置及びその信号処理方法、並びにプログラム

Also Published As

Publication number Publication date
CN113556665A (zh) 2021-10-26
EP3549030A1 (en) 2019-10-09
EP3549030A4 (en) 2020-06-17
AU2022235566A1 (en) 2022-10-13
KR20230027330A (ko) 2023-02-27
CA3045512A1 (en) 2018-06-14
WO2018106605A1 (en) 2018-06-14
US20200112813A1 (en) 2020-04-09
CN110249640A (zh) 2019-09-17
AU2017372721A1 (en) 2019-06-13
IL266889A (en) 2019-07-31
JP2022163173A (ja) 2022-10-25
US20180160251A1 (en) 2018-06-07
US10531220B2 (en) 2020-01-07
IL266889B (en) 2021-04-29
CN110249640B (zh) 2021-08-10
KR102502647B1 (ko) 2023-02-21
KR20190091474A (ko) 2019-08-06
JP7125397B2 (ja) 2022-08-24
IL282046A (en) 2021-05-31
US11528576B2 (en) 2022-12-13

Similar Documents

Publication Publication Date Title
JP7125397B2 (ja) 仮想現実(vr)、拡張現実(ar)、および複合現実(mr)システムのための分散型オーディオ捕捉技法
US11617050B2 (en) Systems and methods for sound source virtualization
US20190313201A1 (en) Systems and methods for sound externalization over headphones
JP7482147B2 (ja) 人工現実環境のためのオーディオシステム
GB2543276A (en) Distributed audio capture and mixing
CN112005556B (zh) 确定声源的位置的方法、声源定位系统以及存储介质
IL263302A (en) Digital camera with analysis of sound, image and motion
JP2017199017A (ja) 模擬地震被害の仮想現実体験システム、模擬地震被害の仮想現実体験方法
JP6218197B1 (ja) 模擬地震被害の実現象データ生成システム、模擬地震被害の実現象データ生成方法
US10979806B1 (en) Audio system having audio and ranging components
KR20200143293A (ko) 실시간 다원 ar 방송을 위한 증강 현실 영상 생성 방법 및 장치
CN113556665B (zh) 用于虚拟现实(vr)、增强现实(ar)和混合现实(mr)系统的分布式音频捕获技术
US20130215010A1 (en) Portable electronic equipment and method of visualizing sound
NZ795232A (en) Distributed audio capturing techniques for virtual reality (1vr), augmented reality (ar), and mixed reality (mr) systems
WO2023033109A1 (ja) 情報処理システム、情報処理方法および情報処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220316

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220713

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220812

R150 Certificate of patent or registration of utility model

Ref document number: 7125397

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150