JP7053855B2 - 空間オーディオナビゲーション - Google Patents

空間オーディオナビゲーション Download PDF

Info

Publication number
JP7053855B2
JP7053855B2 JP2020538765A JP2020538765A JP7053855B2 JP 7053855 B2 JP7053855 B2 JP 7053855B2 JP 2020538765 A JP2020538765 A JP 2020538765A JP 2020538765 A JP2020538765 A JP 2020538765A JP 7053855 B2 JP7053855 B2 JP 7053855B2
Authority
JP
Japan
Prior art keywords
sound
user
path
audio
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020538765A
Other languages
English (en)
Other versions
JP2020535446A5 (ja
JP2020535446A (ja
Inventor
ブルーノ エム ソマー
アヴィ バル-ジーヴ
フランク アンガーマン
スティーブン イー ピント
リリー イング-マリー ヨンソン
ラフール ナイール
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of JP2020535446A publication Critical patent/JP2020535446A/ja
Publication of JP2020535446A5 publication Critical patent/JP2020535446A5/ja
Application granted granted Critical
Publication of JP7053855B2 publication Critical patent/JP7053855B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3629Guidance using speech or audio output, e.g. text-to-speech
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3446Details of route searching algorithms, e.g. Dijkstra, A*, arc-flags, using precalculated routes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3688Systems comprising multiple parts or multiple output devices (not client-server), e.g. detachable faceplates, key fobs or multiple output screens
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1091Details not provided for in groups H04R1/1008 - H04R1/1083
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/033Headphones for stereophonic communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/04Circuit arrangements, e.g. for selective connection of amplifier inputs/outputs to loudspeakers, for loudspeaker detection, or for adaptation of settings to personal preferences or hearing impairments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • H04S1/007Two-channel systems in which the audio signals are in digital form
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • H04S7/304For headphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2420/00Details of connection covered by H04R, not provided for in its groups
    • H04R2420/07Applications of wireless loudspeakers or wireless microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/01Aspects of volume control, not necessarily automatic, in sound systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/15Transducers incorporated in visual displaying devices, e.g. televisions, computer displays, laptops
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/13Aspects of volume control, not necessarily automatic, in stereophonic sound systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Stereophonic System (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Description

モバイル多目的デバイス及び車両用A/Vシステムを含むがこれらに限定されないデバイスのナビゲーションアプリケーションは、ユーザを目的地に導くために、「左に曲がる」又は「右に曲がる」などの視覚的キュー及び/又は音声指示を提供する。スマートフォン及びタブレット/パッドデバイスなどのモバイル多目的デバイスの場合、ナビゲーションアプリケーションを使用して、歩いている又は自転車に乗っているときに、視覚的キュー及び/又は音声指示を使用して、街、公園などを通る経路上でユーザを案内することができる。モバイル多目的デバイスのナビゲーションアプリケーションはまた、直接モバイル多目的デバイスを介するか、又は車両のA/Vシステムへのインターフェースを介するかのいずれかで、車両内で使用して、視覚的キュー及び/又は音声指示を使用して運転中にユーザを目的地に導くことができる。
仮想現実(Virtual reality、VR)は、ユーザが没入型人工環境を体験及び/又はそれと相互作用して、それにより、ユーザが物理的にその環境内にいるかのように感じることを可能にする。例えば、仮想現実システムは、奥行きの錯覚を作り出すために、立体的シーンをユーザに表示してもよく、コンピュータは、シーンコンテンツをリアルタイムで調整して、ユーザがシーン内で移動する錯覚を提供することができる。ユーザが仮想現実システムを介して画像を見る場合、ユーザは、このように一人称の視点からシーン内で移動しているかのように感じることができる。複合現実(Mixed reality、MR)は、現実世界のビューとコンピュータが生成した情報(仮想コンテンツと呼ばれる)とを組み合わせて、ユーザの現実環境のユーザのビューに仮想コンテンツを拡張又は追加する、拡張現実(augmented reality、AR)システムから、コンピュータが生成した三次元(three-dimensional、3D)仮想世界のビューと現実世界のオブジェクトの表現とを組み合わせる、拡張仮想現実(augmented virtual reality、AV)システムまでの範囲を網羅する。したがって、仮想現実のシミュレートされた環境及び/又は複合現実の複合環境を利用して、複数のアプリケーションの相互作用型ユーザエクスペリエンスを提供することができる。
空間オーディオナビゲーションのための方法及び装置の様々な実施形態が記載される。例えば、スマートフォン、パッドデバイス、及びタブレットデバイスなどのモバイル多目的デバイスによって実施することができる、空間オーディオナビゲーションシステム及び空間オーディオナビゲーション方法の実施形態が記載される。空間オーディオナビゲーションシステムは、オーディオ形式のナビゲーション情報を提供して、現実世界の位置、人々、又はオブジェクトなどの目的地にユーザを導く。従来のナビゲーションアプリケーションのように音声指示を使用する又は視覚的キューに依拠する代わりに、空間オーディオナビゲーションシステムは、バイノーラルオーディオデバイス(例えば、ヘッドフォン、ヘッドセット、有線又は無線イヤホンなど、総じて「ヘッドセット」と呼ばれる)を介して再生されるオーディオの指向性及び距離を使用して、ユーザにナビゲーションキューを提供する。
従来のナビゲーションアプリケーションは、「左に曲がる」又は「右に曲がる」などの音声指示を提供して、ユーザを目的地に導くことができる。しかし、ユーザは、例えば、歩いている又は自転車に乗っている間に、ナビゲーションアプリケーションを使用しながら、オーディオ源(例えば、音楽、オーディオブック、電話通話など)を聴いていることがあり、音声指示によってオーディオが中断されないことを好む場合がある。加えて、通話中に、音声指示は、会話を妨げることがあり、及び/又は会話は、音声指示を妨げることがある。本明細書に記載される空間オーディオナビゲーションシステム及び空間オーディオナビゲーション方法の実施形態は、代わりに、バイノーラルオーディオデバイスを介して再生される音の指向性及び距離を使用して、ユーザにナビゲーションキューを提供する。したがって、実施形態は、音の見かけの音源の空間的位置を使用して、ユーザを特定の方向に案内する。例えば、音楽を聴いている間に経路上でユーザを案内するために、音楽の見かけの音源を、ユーザの前に配置して、経路に沿ってユーザを案内し、ユーザの側面に移動させて、経路上で曲がるようにユーザに促すことができる。したがって、音楽は中断されず、実施形態は、従来のナビゲーションアプリケーションよりも、ナビゲーション情報を伝達するためのより繊細な方法を提供する。同様に、オーディオブック、電話会話、シミュレートされた若しくはキャプチャされた環境ノイズ、トーン、ベル、サイレン、若しくはホワイトノイズなどのシミュレートされた音、又は鉄道列車若しくは狼の群れの音などの録音された音が挙げられるが、これらに限定されない、他のオーディオ源を用いて行うことができる。
加えて、心理学的にユーザは、音声指示が正しいと思い込む傾向があり、したがって、あまり考えずに指示に従って、潜在的に事故を引き起こす場合がある。ユーザに告げる音声指示の代わりに、音の指向性及び距離をオーディオキューとして使用して、ユーザを案内することにより、指向性オーディオキューに従うことが安全であるか否かを判定することは、ユーザ次第である。音声は、ユーザに何かをする(例えば、「左に曲がる」又は「右に曲がる」)ように告げず、代わりに、ユーザは、指向性オーディオキューに従う。指向性オーディオキューなどの何かに従う場合、口頭コマンドを聴いている場合とは、異なる心理学が関与する。
空間オーディオナビゲーションシステムの実施形態では、現在位置、目標位置、及び地図情報を経路探索アルゴリズムに入力して、ユーザの現在位置と目標位置との間の現実世界の経路を判定することができる。次いで、空間オーディオナビゲーションシステムは、ヘッドセットを介して再生される指向性オーディオを使用して、現在位置から目標位置までの経路上でユーザを案内することができる。モバイル多目的デバイスによって判定されるようなユーザの現在位置及び動きの方向、並びにヘッドセットによって判定されるような頭部の向き及び移動を、空間オーディオナビゲーションシステムによって使用して、ユーザが現実世界で移動するときに、例えば、左右のオーディオチャネルの音量を調整することにより、オーディオの知覚される又は仮想指向性及び距離を調整して、経路に沿ってユーザを目標位置に案内する。音量を調整する代わりに、又はそれに加えて、周波数及び残響を含むがこれらに限定されない、オーディオの他の様相を減衰させて、オーディオの仮想指向性及び距離に影響を及ぼすことができる。再生されている特定の音などのオーディオの他の様相を、入力に基づいて調整して、ユーザを目標位置に案内するのを支援することができる。
空間オーディオナビゲーションシステムは、有線又は無線接続を介してヘッドセットにオーディオを出力して、それにより、ユーザは、空間オーディオ感覚で音を聴くことができる。換言すれば、ユーザは、正確な距離及び方向を有する現実世界の位置から音が来ているかのように音を聴く。例えば、システムは、ヘッドセットを介して音を再生して、それにより、ユーザの左、ユーザの右、正面、背後、又はなんらかの角度から来る音をユーザが聴くことができる。音が来ているように思われる方向を変更して、経路上でユーザを案内することができる。例えば、ユーザが経路上の左折に近づくと、左オーディオ出力チャネルの音量を増加させることによって、及び/又は右オーディオ出力チャネルの音量を減少させることによって、音は、左に移動されてもよい。いくつかの実施形態では、システムは、音の音量を変調して、ユーザに距離の感覚を与える、例えば、3フィート、10フィート、又は50フィート離れたところから音が来ているかのように思わせることができる。音量を調整する代わりに、又はそれに加えて、周波数及び残響を含むがこれらに限定されない、左右のオーディオチャネルの他の様相を減衰させて、オーディオの仮想指向性及び距離に影響を及ぼすことができる。いくつかの実施形態では、システムは、検出されたイベントに基づいて、例えば、ユーザが曲がり目を逃した又は障害物に近づいている場合に警告又は警報音を再生することによって、音を変更することができる。
空間オーディオナビゲーションシステムの実施形態は、いくつかの異なる空間オーディオナビゲーション方法のうちの1つ以上を実施して、空間オーディオベースのキューを使用して経路をたどるときにユーザを導くことができる。この方法は、以下を含むことができるが、これらに限定されない。
連続経路トレーシング-音は、経路を連続的にたどるように移動される。音が経路の終端に到達すると、音は、経路の開始に戻り、プロセスは、繰り返される。
離散経路トレーシング-音は、経路に沿って離散間隔で移動される。音が経路の終端に到達すると、音は、経路の開始に戻り、プロセスは、繰り返される。
現在再生している音の局所方向-ユーザは、音楽、ポッドキャスト、又は電話通話などのオーディオ源を聴いている。ユーザがヘッドセットを介して単純なステレオサウンドとしてオーディオ源を聴く代わりに、空間オーディオナビゲーションシステムは、ユーザが経路をたどるように移動すべき方向に、ユーザからなんらかの距離だけ離れたところに音を配置する。音は、経路のカーブ又は曲がり目をたどるように、左又は右に移動されてもよい。
音指向性-音は、ユーザの背後から前に、ユーザが経路をたどるように移動する必要がある方向に向かって移動し、停止し、その後、繰り返す。音は、ユーザの頭部からなんらかの距離だけ離れて配置されて、例えば、耳優位性に応じて、ユーザの左又は右のいずれかに配置されてもよい。
音トンネリング-環境内の環境ノイズがサンプリング又はシミュレートされる。例えば、ユーザが森にいる場合、環境ノイズは、木のさらさら音を含んでもよく、又はユーザが街にいる場合、環境ノイズは、群衆及び交通の音を含んでもよい。次いで、この環境ノイズは、空間オーディオナビゲーションシステムによって再生される。ユーザが経路をたどるように移動すべき方向を除いて、ユーザを完全に囲む音に対する障害物が、空間オーディオナビゲーションシステムによって配置される。これにより、ユーザに環境ノイズの方向に経路をたどるように促す音トンネリング効果が生じる。
環境音閉塞-上記のように、環境内の適切な環境ノイズは、空間オーディオナビゲーションシステムによってサンプリング又はシミュレートされ、ユーザに再生される。しかしながら、障害物は、ユーザが経路をたどるように移動すべき方向に配置され、ユーザに面するように向けられる。これは、ユーザが移動すべき方向の環境ノイズを遮断し、環境ノイズの欠如又は間隙の方向に経路をたどるようにユーザに促す環境ノイズの間隙が存在する効果を引き起こす。
音追尾-音(例えば、狼の群れ、列車などの音)がユーザの背後のなんらかの距離で再生され、ユーザが移動すると、音は、ユーザを「追いかける」又は追従して、経路に沿ってユーザを後押しする。
ユーザによって装着されたヘッドセットに有線又は無線接続によって接続されたモバイル多目的デバイス内に空間オーディオナビゲーションシステムが実装される実施形態が主に説明されているが、空間オーディオナビゲーションシステムの実施形態はまた、位置技術、頭部向き技術、及びバイノーラルオーディオ出力を含むヘッドマウントディスプレイ(head-mounted displays、HMD)として実装されるVR/MRシステムに実装されてもよく、HMDに統合されたスピーカは、バイノーラルオーディオデバイスとして使用されてもよく、又は代わりに、外部ヘッドセットが、バイノーラルオーディオデバイスとして使用されてもよい。HMD、並びにスマートフォン及びパッドなどのモバイル多目的デバイスは、「モバイルデバイス」と呼ばれることがあることに留意されたい。更に、実施形態は、モバイル多目的デバイス、又はデバイスの2つ以上のスピーカを使用してオーディオ形式でナビゲーション情報を出力する、したがって、バイノーラルオーディオデバイスとして機能する、ヘッドセットを有さないノートブックコンピュータ若しくはネットブックコンピュータなどの他のポータブルコンピューティングデバイスに使用することができる。より一般的には、実施形態は、バイノーラルオーディオ出力を含み、かつ頭部の動き及び向き追跡を提供する、任意のデバイス又はシステムに実装されてもよい。
加えて、実施形態は、車両位置及び向き技術を使用して、車両の位置、動き、及び向きを判定し、かつ車両の「サラウンド」スピーカシステムをバイノーラルオーディオデバイスとして使用して、指向性音を出力して、目標位置まで運転している間にユーザを案内する車両用A/Vシステム、並びに、モバイル多目的デバイス又は他の技術を使用して、「サラウンド」スピーカシステムをバイノーラルオーディオデバイスとして使用して指向性音を出力してユーザを案内している間に、ユーザの位置、向き、及び移動を判定する、家若しくは他の建造物又は環境で機能するように適合させることができる。
本明細書に記載される空間オーディオナビゲーションシステム及び方法の実施形態を実装することができる、例示的なモバイル多目的デバイスの実施形態を示す。 本明細書に記載される空間オーディオナビゲーションシステム及び方法の実施形態を実装することができる、例示的なモバイル多目的デバイスの実施形態を示す。 本明細書に記載される空間オーディオナビゲーションシステム及び方法の実施形態を実装することができる、例示的なVR/MRシステムの実施形態を示す。 本明細書に記載される空間オーディオナビゲーションシステム及び方法の実施形態を実装することができる、例示的なVR/MRシステムの実施形態を示す。 本明細書に記載される空間オーディオナビゲーションシステム及び方法の実施形態を実装するためにVR/MRシステムとともに使用される、モバイル多目的デバイスを示す。 いくつかの実施形態に係る、空間オーディオナビゲーションシステムの構成要素及び入力を示す。 いくつかの実施形態に係る、図3に示すような空間オーディオナビゲーションシステムによって実施することができる方法の高レベルフローチャートである。 バイノーラルオーディオデバイスを介した従来のオーディオ出力を示す。 バイノーラルオーディオデバイスを介した従来のオーディオ出力を示す。 いくつかの実施形態に係る、図3及び図4に示すような空間オーディオナビゲーションシステムによって使用することができる、様々な空間オーディオナビゲーション方法をグラフィカルに示す。 いくつかの実施形態に係る、図3及び図4に示すような空間オーディオナビゲーションシステムによって使用することができる、様々な空間オーディオナビゲーション方法をグラフィカルに示す。 いくつかの実施形態に係る、図3及び図4に示すような空間オーディオナビゲーションシステムによって使用することができる、様々な空間オーディオナビゲーション方法をグラフィカルに示す。 いくつかの実施形態に係る、図3及び図4に示すような空間オーディオナビゲーションシステムによって使用することができる、様々な空間オーディオナビゲーション方法をグラフィカルに示す。 いくつかの実施形態に係る、図3及び図4に示すような空間オーディオナビゲーションシステムによって使用することができる、様々な空間オーディオナビゲーション方法をグラフィカルに示す。 いくつかの実施形態に係る、図3及び図4に示すような空間オーディオナビゲーションシステムによって使用することができる、様々な空間オーディオナビゲーション方法をグラフィカルに示す。 いくつかの実施形態に係る、図3及び図4に示すような空間オーディオナビゲーションシステムによって使用することができる、様々な空間オーディオナビゲーション方法をグラフィカルに示す。 いくつかの実施形態に係る、空間オーディオナビゲーション方法を更に示す。 いくつかの実施形態に係る、空間オーディオナビゲーション方法を更に示す。 いくつかの実施形態に係る、空間オーディオナビゲーション方法を更に示す。 いくつかの実施形態に係る、空間オーディオナビゲーション方法を更に示す。 いくつかの実施形態に係る、曲がり目に対処するための空間オーディオナビゲーション方法を示す。 いくつかの実施形態に係る、曲がり目に対処するための空間オーディオナビゲーション方法を示す。 いくつかの実施形態に係る、曲がり目に対処するための空間オーディオナビゲーション方法を示す。
本明細書は、「one embodiment(一実施形態)」又は「an embodiment(実施形態」に対する参照を含む。「in one embodiment(一実施形態において)」又は「in an embodiment(ある実施形態において)」という語句表現は、必ずしも同一の実施形態を指すわけではない。特定の機能、構造、又は特性は、本開示と一貫したいずれかの適切な方式で組み合わされてもよい。
「comprising(備える、含む)」。この用語はオープンエンドである。特許請求の範囲で使用されるとき、この用語は、追加の構造又はステップを除外しない。「1つ以上のプロセッサユニット・・・を備えた装置」と記載される請求項を検討する。このような請求項は、装置が追加の構成要素(例えば、ネットワークインターフェースユニット、グラフィック回路など)を含むことを除外しない。
「configured to(ように構成されている)」。様々なユニット、回路、又は他の構成要素は、タスク又はタスク(複数)を実行する「ように構成されている」と説明又は請求されてもよい。このような文脈では、「構成されている」は、ユニット/回路/構成要素が、動作の間にそれらのタスク又はタスク(複数)を実行する構造(例えば、回路)を含むことを示すことによって構造を暗示するときに使用される。そのように、ユニット/回路/構成要素は、指定されたユニット/回路/構成要素が現在動作可能でない(例えば、オンの状態でない)ときでさえ、タスクを実行するように構成されていると言うことができる。「構成されている」という言葉とともに使用されるユニット/回路/構成要素は、ハードウェア、例えば、演算を実施するように実行可能なプログラム命令を記憶した回路、メモリなどを含む。ユニット/回路/構成要素が1つ以上のタスクを実行するように「構成されている」と記述することは、そのユニット/回路/構成要素に対して米国特許法第112条、段落(f)が適用されないことが明示的に意図されている。加えて、「構成されている」は、ソフトウェア及び/又はファームウェア(例えば、FPGA又はソフトウェアを実行する汎用プロセッサ)によって操作され、対象のタスク(単数又は複数)を実行可能な方式で動作する一般的な構造体(例えば、一般的な回路)を含むことができる。「構成されている」はまた、1つ以上のタスクを実施又は実行するように適合されたデバイス(例えば、集積回路)を組み立てるように製造工程(例えば、半導体組み立て設備)を適合させることを含んでもよい。
「第1」、「第2」など。本明細書で使用されるように、これらの用語は、続く名詞の標識として使用され、いかなるタイプの順序付け(例えば、空間的、時間的、論理的など)も意味しない。例えば、バッファ回路は、「第1」及び「第2」の値に対する書き込み演算を実行するものとして本明細書で説明されてもよい。用語「第1」及び「第2」は、必ずしも第1の値が第2の値の前に書き込まれなければならないことを含意していない。
「基づいて」又は「従って」。本明細書で使用されるように、これらの用語は、判定に影響を及ぼす1つ以上の要因を説明するために使用される。これらの用語は、判定に影響を及ぼすことがある追加の要因を除外しない。すなわち、判定はそれらの要因のみに基づいているか、又は少なくとも部分的にそれらの要因に基づいていることがある。「Bに基づいてAを判定する」というフレーズを検討する。このケースでは、BはAの判定に影響を及ぼす要因であるが、このようなフレーズはAの判定がCにも基づいていることを除外しない。他の例では、AはBのみに基づいて判定されてもよい。
「又は」。特許請求の範囲で使用されるとき、用語「又は」は、包括的論理和として使用され、排他的論理和として使用されない。例えば、語句「x、y、又はzのうちの少なくとも1つ」は、x、y、及びzのいずれか1つ、並びにこれらの任意の組み合わせを意味する。
空間オーディオナビゲーションのための方法及び装置の様々な実施形態が記載される。例えば、モバイル多目的デバイスによって実施することができる、空間オーディオナビゲーションシステム及び空間オーディオナビゲーション方法の実施形態が記載される。空間オーディオナビゲーションシステムは、オーディオ形式のナビゲーション情報を提供して、現実世界の位置、人々、又はオブジェクトなどの目的地にユーザを導く。従来のナビゲーションアプリケーションのように口頭コマンドを使用する代わりに、空間オーディオナビゲーションシステムは、バイノーラルオーディオデバイス(例えば、ヘッドフォン、ヘッドセット、有線又は無線イヤホンなど、総じて「ヘッドセット」と呼ばれる)を介して再生されるオーディオの指向性を使用して、ユーザにナビゲーションキューを提供する。
ヘッドセットは、ユーザの左耳内又はその上に装着された左オーディオ出力構成要素と、ユーザの右耳内又はその上に装着された右オーディオ出力構成要素と、を含む。音の指向性は、例えば、オーディオ出力構成要素のうちの一方によって出力される音の音量を増加させること、及び/又は他方のオーディオ出力構成要素によって出力される音の音量を減少させることによって、提供されてもよい。両方の構成要素が同じ音量レベルにある場合、音は、ユーザの前から来ているように思われることがある。音量が左の構成要素でゼロを上回り、かつ右の構成要素でゼロである場合、音は、ユーザの直ぐ左から来ているように思われることがある。音量が右の構成要素でゼロを上回り、かつ左の構成要素でゼロである場合、音は、ユーザの直ぐ右から来ているように思われることがある。音量が、左の構成要素でより高く、かつ右の構成要素でより低い場合、音は、ユーザの前かつ左の位置から来ているように思われることがある。音量が、右の構成要素でより高く、かつ左の構成要素でより低い場合、音は、ユーザの前かつ右の位置から来ているように思われることがある。加えて、一方又は両方の構成要素によって出力される音を変調して、音がユーザの背後から来ていると思わせることができる。加えて、一方又は両方の構成要素の音量を変調することにより、距離の感覚を提供することができ、より低い音量では、音は、より遠く離れたところから来ているように思われることがあり、より高い音量では、音は、近くから来ているように思われることがある。音量を調整する代わりに、又はそれに加えて、周波数及び残響を含むがこれらに限定されない、左右のオーディオチャネルの他の様相を減衰させて、オーディオの仮想指向性及び距離に影響を及ぼすことができる。
空間オーディオナビゲーションシステムへの入力は、(典型的には、モバイル多目的デバイス上のアプリケーションへのインターフェースを介してユーザによって提供される)現実世界の目標位置、モバイル多目的デバイスによって判定されたユーザの現実世界の現在位置、ユーザの頭部の動き及び向き、典型的にはモバイル多目的デバイス上の地図又はナビゲーションアプリケーションによって提供される現実世界の地図情報、並びにオーディオ源を含むことができる。目標位置は、場所、人(例えば、その位置をユーザのモバイル多目的デバイスに通信することができる別のモバイル多目的デバイスを保持する人)、又は位置が既知である若しくは空間オーディオナビゲーションシステムによって発見可能であるオブジェクト(例えば、鍵のセット)であってもよい。ユーザのモバイル多目的デバイスは、1つ以上の位置センサからの入力を使用して、現実世界でのその位置を計算する。位置センサは、GPS(global positioning system、全地球測位システム)技術センサ、dGPS(differential GPS、差分GPS)技術センサ、カメラ、屋内測位技術センサ、SLAM(simultaneous localization and mapping、同時ローカライゼーション及びマッピング)技術センサなどのうちの1つ以上を含むことができるが、これらに限定されない。ユーザによって装着されたヘッドセットは、現実世界に対するユーザの頭部の動き及び向きを検出して追跡するために使用される動きセンサを含む。動きセンサは、IMU(inertial measurement units、慣性測定ユニット)、ジャイロスコープ、姿勢センサ、コンパスなどのうちの1つ以上を含んでもよいが、これらに限定されない。現実世界の地図情報としては、位置間のルート、適切な通過可能エリア(歩道、道路、ドアなど)、及び障害物(壁、建造物、フェンスなど)に関する情報を挙げることができるが、これらに限定されない。オーディオ源としては、例えば、環境からサンプリングされた若しくは環境に対してシミュレートされた環境ノイズ、ユーザが聴いているオーディオ源(例えば、音楽、ポッドキャスト、オーディオブック、ラジオ放送、電話通話など)、又は様々な予め録音された若しくは生成された音を挙げることができる。
現在位置、目標位置、及び地図情報を経路探索アルゴリズムに入力して、ユーザの現在位置と目標位置との間の現実世界の経路を判定することができる。次いで、空間オーディオナビゲーションシステムは、ヘッドセットを介して再生される指向性オーディオを使用して、現在位置から目標位置までの経路上でユーザを案内することができる。モバイル多目的デバイスによって判定されるようなユーザの現在位置及び動きの方向、並びにヘッドセットによって判定されるような頭部の向き及び移動を、空間オーディオナビゲーションシステムによって使用して、ユーザが現実世界で移動するときに、オーディオの仮想指向性及び距離を調整して、経路に沿ってユーザを目標位置に案内する。いくつかの実施形態では、オーディオの仮想指向性及び距離は、音量、周波数、及び残響を含むがこれらに限定されない、左及び/又は右オーディオチャネルへのオーディオ出力の1つ以上の様相を減衰させることによって、調整されてもよい。オーディオの音量及び種類などのオーディオの他の様相を、入力に基づいて調整して、ユーザを目標位置に案内するのを支援することができる。
空間オーディオナビゲーションシステムは、有線又は無線接続を介してヘッドセットにオーディオを出力して、それにより、ユーザは、空間オーディオ感覚で音を聴くことができる。換言すれば、ユーザは、正確な距離及び方向を有する現実世界の位置から音が来ているかのように音を聴く。例えば、システムは、ヘッドセットを介して音を再生して、それにより、ユーザの左、ユーザの右、正面、背後、又はなんらかの角度から来る音をユーザが聴くことができる。音が来ているように思われる方向を変更して、経路上でユーザを案内することができる。例えば、ユーザが経路上の左折に近づくと、音は、左に移動されてもよい。いくつかの実施形態では、システムは、音の音量を変調して、ユーザに距離の感覚を与える、例えば、3フィート、10フィート、又は50フィート離れたところから音が来ているかのように思わせることができる。音量を調整する代わりに、又はそれに加えて、周波数及び残響を含むがこれらに限定されない、オーディオの他の様相を減衰させて、オーディオの仮想距離に影響を及ぼすことができる。いくつかの実施形態では、システムは、検出されたイベントに基づいて、例えば、ユーザが曲がり目を逃した又は障害物に近づいている場合に警告又は警報音を再生することによって、音を変更することができる。
空間オーディオナビゲーションシステムの実施形態は、いくつかの異なる空間オーディオナビゲーション方法のうちの1つ以上を実施して、空間オーディオベースのキューを使用して経路をたどるときにユーザを導くことができる。この方法としては、連続経路トレーシング法、離散経路トレーシング法、現在再生している音の局所方向法、音指向性法、音トンネリング法、環境音閉塞法、及び音追尾法を挙げることができるが、これらに限定されない。これらの様々な空間オーディオナビゲーション方法及び実施形態で使用することができる他の方法は、図5C~図5I、図6A~図6D、及び図7A~図7Cに関連して更に説明する。
例えば、図1A及び図1Bに示すような、ユーザによって装着されたヘッドセットに有線又は無線接続によって接続されたモバイル多目的デバイス内に、空間オーディオナビゲーションシステムが実装される実施形態が主に説明されているが、空間オーディオナビゲーションシステムの実施形態はまた、例えば、図2A及び図2Bに示すように、位置技術、頭部向き技術、及びバイノーラルオーディオ出力を含むヘッドマウントディスプレイ(HMD)として実装されるVR/MRシステムに実装されてもよく、HMDに統合されたスピーカは、バイノーラルオーディオデバイスとして使用されてもよく、又は代わりに、外部ヘッドセットが、バイノーラルオーディオデバイスとして使用されてもよい。更に、実施形態は、モバイル多目的デバイス、又はデバイスの2つ以上のスピーカを使用してオーディオ形式でナビゲーション情報を出力する、したがって、バイノーラルオーディオデバイスとして機能する、ヘッドセットを有さないノートブックコンピュータ若しくはネットブックコンピュータなどの他のポータブルコンピューティングデバイスに使用することができる。より一般的には、実施形態は、バイノーラルオーディオ出力を含み、かつ頭部の動き及び向き追跡を提供する、任意のデバイス又はシステムに実装されてもよい。
加えて、実施形態は、車両位置及び向き技術を使用して、車両の位置、動き、及び向きを判定し、かつ車両の「サラウンド」スピーカシステムをバイノーラルオーディオデバイスとして使用して、指向性音を出力して、目標位置まで運転している間にユーザを案内する車両用A/Vシステム、並びに、モバイル多目的デバイス又は他の技術を使用して、「サラウンド」スピーカシステムをバイノーラルオーディオデバイスとして使用して指向性音を出力してユーザを案内している間に、ユーザの位置、向き、及び移動を判定する、家若しくは他の建造物又は環境に実装することができる。
図1A及び図1Bは、本明細書に記載される空間オーディオナビゲーションシステム及び方法の実施形態を実装することができる、例示的なモバイル多目的デバイスの実施形態を示す。図1Aに示すように、スマートフォン、タブレット、又はパッドデバイスなどのモバイル多目的デバイス100は、ユーザ190によって、例えば、手又はポケットに携帯されてもよい。デバイス100は、デバイス100の現実世界の位置を判定することを可能にする1つ以上の位置センサ、例えば、GPS(全地球測位システム)技術センサ、dGPS(差分GPS)技術センサ、カメラ、屋内測位技術センサ、SLAM(同時ローカライゼーション及びマッピング)技術センサなどを含んでもよい。ヘッドセット108と呼ばれるバイノーラルオーディオデバイス(例えば、ヘッドフォン、ヘッドセット、有線又は無線イヤホンなど)は、ユーザ190によって装着されてもよい。ヘッドセット108は、右オーディオ110A及び左オーディオ110B出力構成要素(例えば、イヤホン)と、現実世界に対するユーザ190の頭部の動き及び向きを検出して追跡するために使用される1つ以上の動きセンサと、を含んでもよい。動きセンサは、IMU(慣性測定ユニット)、ジャイロスコープ、姿勢センサ、コンパスなどのうちの1つ以上を含んでもよいが、これらに限定されない。モバイルデバイス100は、有線又は無線接続を介して右112A及び左112Bオーディオチャネルを右オーディオ110A及び左オーディオ110B出力構成要素(例えば、イヤホン)に送信してもよく、ヘッドセット108は、有線又は無線接続を介して頭部の向き及び移動の情報をデバイス100に通信することができる。
図1Bは、いくつかの実施形態に係る、図1Aに示すようなシステムの構成要素を示すブロック図である。スマートフォン、タブレット、又はパッドデバイスなどのモバイル多目的デバイス100は、1つ以上のプロセッサ104と、メモリ130と、1つ以上のセンサ120と、タッチ対応ディスプレイ102と、を含むことができるが、これらに限定されない。
デバイス100は、コンテンツをユーザに表示することができ、かつユーザが情報及びコマンドをデバイス100に入力することができる、タッチ対応ディスプレイ102を含んでもよい。ディスプレイ102は、様々なタイプのタッチ対応ディスプレイ技術のいずれかを実装することができる。
デバイス100はまた、モバイル多目的デバイスの機能を実施する1つ以上のプロセッサ104を含んでもよい。デバイス100はまた、プロセッサ104によって実行可能なソフトウェア(コード132)、並びにコード132によってプロセッサ104上で実行するときに使用することができるデータ134を記憶するメモリ130を含んでもよい。
コード132及びデータ134は、例えば、デバイス100のオペレーティングシステムを実行するためのコード及びデータ、並びにデバイス100上で様々なアプリケーションを実施するためのコード及びデータを含むことができる。コード132はまた、本明細書に記載される空間オーディオナビゲーションシステム及び方法を実施するための、プロセッサ104によって実行可能なプログラム命令を含んでもよいが、これらに限定されない。データ134はまた、現実世界の地図情報、オーディオファイル、又は本明細書に記載される空間オーディオナビゲーションシステムによって使用することができる他のデータも含むことができるが、これらに限定されない。
各種実施形態では、プロセッサ104は、1つのプロセッサを含むユニプロセッサシステム、又はいくつかのプロセッサ(例えば、2個、4個、8個、若しくは別の適切な数)を含むマルチプロセッサシステムであってもよい。プロセッサ104は、任意の好適な命令セットアーキテクチャを実装するように構成された中央処理装置(central processing units、CPU)を含んでもよく、その命令セットアーキテクチャで定義された命令を実行するように構成されてもよい。例えば、各種実施形態では、プロセッサ104は、x86、PowerPC、SPARC、RISC、若しくはMIPS 命令セットアーキテクチャ(instruction set architectures、ISA)、又は任意の他の好適なISAなどの、様々なISAのいずれかを実装する汎用プロセッサ又は組み込みプロセッサを含んでもよい。マルチプロセッサシステムでは、プロセッサの各々は、必ずしもではないが、同一のISAを共通して実装してもよい。プロセッサ104は、スカラ方式、スーパースカラ方式、パイプライン方式、スーパーパイプライン方式、アウトオブオーダ方式、インオーダ方式、スペキュレーティブ方式、非スペキュレーティブ方式など、又はそれらの組み合わせを含む、任意のマイクロアーキテクチャを採用してもよい。プロセッサ104は、マイクロコーディング技術を実施する回路を含んでもよい。プロセッサ104は、各々が命令を実行するように構成された1つ以上のプロセシングコアを含んでもよい。プロセッサ104は、任意のサイズ及び任意の構成(セットアソシアティブ方式、ダイレクトマップ方式など)を採用することができる、1つ以上のレベルのキャッシュを含んでもよい。いくつかの実施形態では、プロセッサ104は、任意の好適なグラフィック処理回路を含むことができる、少なくとも1つのグラフィック処理ユニット(graphics processing unit、GPU)を含むことができる。概して、GPUは、フレームバッファに表示されることになるオブジェクト(例えば、フレーム全体に対するピクセルデータを含むもの)をレンダリングするように構成されてもよい。GPUは、グラフィック演算の一部若しくは全て、又は特定のグラフィック演算のハードウェア高速化を実行するグラフィックソフトウェアを実行することができる、1つ以上のグラフィックプロセッサを含んでもよい。いくつかの実施形態では、プロセッサ104は、ビデオ及び/又は画像を処理してレンダリングするための1つ以上の他の構成要素、例えば、画像信号プロセッサ(image signal processors、ISP)、コーダ/デコーダ(コーデック)などを含んでもよい。いくつかの実施形態では、プロセッサ104は、少なくとも1つのシステムオンチップ(system on a chip、SOC)を含むことができる。
メモリ130は、ダイナミックランダムアクセスメモリ(dynamic random access memory、DRAM)、同期DRAM(synchronous DRAM、SDRAM)、ダブルデータレート(double data rate、DDR、DDR2、DDR3など)SDRAM(mDDR3などのモバイルバージョンのSDRAM又はLPDDR2などの低電力バージョンのSDRAMを含む)、RAMBUS DRAM(RDRAM)、スタティックRAM(static RAM、SRAM)などの、任意のタイプのメモリを含んでもよい。いくつかの実施形態では、1つ以上のメモリデバイスは、シングルインラインメモリモジュール(single inline memory modules、SIMM)、デュアルインラインメモリモジュール(dual inline memory modules、DIMM)などのメモリモジュールを形成するために回路基板上で結合されてもよい。代わりに、デバイスは、システムをチップオンチップ構成、パッケージオンパッケージ構成、又はマルチチップモジュール構成で実装する集積回路を搭載してもよい。
デバイス100は、デバイス100の現実世界の位置を判定することを可能にする1つ以上の位置センサ120、例えば、GPS(全地球測位システム)技術センサ、dGPS(差分GPS)技術センサ、カメラ、屋内測位技術センサ、SLAM(同時ローカライゼーション及びマッピング)技術センサなどを含んでもよい。
ヘッドセット108と呼ばれるバイノーラルオーディオデバイス(例えば、ヘッドフォン、ヘッドセット、有線又は無線イヤホンなど)は、ユーザによって装着されてもよい。ヘッドセット108は、右オーディオ110A及び左オーディオ110B出力構成要素(例えば、イヤホン)と、現実世界に対するユーザ190の頭部の動き及び向きを検出して追跡するために使用される1つ以上の動きセンサ106と、を含んでもよい。動きセンサ106は、IMU(慣性測定ユニット)、ジャイロスコープ、姿勢センサ、コンパスなどのうちの1つ以上を含んでもよいが、これらに限定されない。モバイルデバイス100は、有線又は無線接続を介して右112A及び左112Bオーディオチャネルを右オーディオ110A及び左オーディオ110B出力構成要素(例えば、イヤホン)に送信してもよく、ヘッドセット108は、有線又は無線接続を介して頭部の向き及び移動の情報をデバイス100に通信することができる。
図2A及び図2Bは、本明細書に記載される空間オーディオナビゲーションシステム及び方法の実施形態を実装することができる、例示的なVR/MRシステムの実施形態を示す。
図2Aは、少なくともいくつかの実施形態に係る、VR/MRシステムを示す。いくつかの実施形態では、VR/MRシステムは、ユーザ290によって装着することができるヘルメット、ゴーグル、又は眼鏡などのHMD 200を含んでもよい。いくつかの実施形態では、HMD 200は、独立型ユニットであってもよい。しかしながら、いくつかの実施形態では、VR/MRシステムは、VR/MRシステムの機能の少なくとも一部を実行し(例えば、表示のための仮想コンテンツをレンダリングする)、かつ有線又は無線接続を介してHMD 200と通信する、ベースステーション(図示せず)を含んでもよい。
HMD 200は、ユーザ290の環境に関する情報(ビデオ、深度情報、照明情報など)、及びユーザ290に関する情報(例えば、ユーザの表情、眼球の移動、頭部の移動、視線方向、手のジェスチャなど)を収集するセンサを含んでもよい。仮想コンテンツは、ユーザ290に表示するために、センサから得られた様々な情報に少なくとも部分的に基づいてレンダリングされてもよい。仮想コンテンツは、(VRアプリケーション内で)仮想現実ビューを提供するために、又は(MRアプリケーション内で)現実の拡張されたビューを提供するために、HMD 200によってユーザ290に表示されてもよい。HMD 200は、様々なタイプのディスプレイ技術のいずれかを実装することができる。
HMD 200は、HMD 200の現実世界の位置を判定することを可能にする1つ以上の位置センサ、例えば、GPS(全地球測位システム)技術センサ、dGPS(差分GPS)技術センサ、カメラ、屋内測位技術センサ、SLAM(同時ローカライゼーション及びマッピング)技術センサなどを含んでもよい。
HMD 200は、(例えば、右オーディオ210A及び左オーディオ210B出力構成要素を介して)バイノーラルオーディオ出力を提供することができる。例えば、右オーディオ210A及び左オーディオ210B出力構成要素は、HMD 200に一体化され、かつユーザの右耳及び左耳それぞれに又はその上に配置されたオーバーイヤースピーカ又はイヤピースであってもよい。別の実施例として、右オーディオ210A及び左オーディオ210B出力構成要素は、有線又は無線接続によってHMD 200に結合された左右のイヤホン又はヘッドフォンであってもよい。
図2Bは、いくつかの実施形態に係る、図2Aに示すようなVR/MRシステムの構成要素を示すブロック図である。いくつかの実施形態では、VR/MRシステムは、ヘッドセット、ヘルメット、ゴーグル、又は眼鏡などのHMD 200を含んでもよい。いくつかの実施形態では、HMD 200は、独立型ユニットであってもよい。しかしながら、いくつかの実施形態では、VR/MRシステムは、VR/MRシステムの機能の少なくとも一部を実行し(例えば、表示のための仮想コンテンツをレンダリングする)、かつ有線又は無線接続を介してHMD 200と通信する、ベースステーション(図示せず)を含んでもよい。
HMD 200は、仮想コンテンツをユーザに表示して、(VRアプリケーション内で)仮想現実ビューを提供する又は(MRアプリケーション内で)現実の拡張されたビューを提供することができる、ディスプレイ202構成要素又はサブシステムを含んでもよい。ディスプレイ202は、様々なタイプのディスプレイ技術のいずれかを実装することができる。例えば、HMD 200は、DLP(digital light processing、デジタル光処理)、LCD(liquid crystal display、液晶ディスプレイ)、及びLCoS(liquid crystal on silicon、シリコン上の液晶)技術ディスプレイシステムなどの、ユーザ290の眼の前のスクリーン上に左画像及び右画像を表示する、ニアアイディスプレイシステムを含んでもよい。別の実施例として、HMD 200は、左右の画像を被験者の眼に走査するプロジェクタシステムを含んでもよい。画像を走査するために、左右プロジェクタは、ユーザ290の眼の前に位置する左右のディスプレイ(例えば、楕円鏡)に向けられたビームを生成し、ディスプレイは、ビームをユーザの眼に反射させる。左右のディスプレイは、環境からの光が通過することを可能にするシースルーディスプレイであってもよく、それにより、ユーザは、投影された仮想コンテンツによって拡張された現実のビューを見ることができる。
HMD 200はまた、VR/MRシステムの機能を実施する1つ以上のプロセッサを備えるコントローラ204を含んでもよい。HMD 200はまた、コントローラ204によって実行可能なソフトウェア(コード232)、並びにコントローラ204上で実行するときにコード232によって使用することができるデータ234を記憶するメモリ230を含んでもよい。コード232及びデータ234は、例えば、仮想コンテンツをレンダリングしてユーザに表示するためのVR及び/又はARアプリケーションのコード並びにデータを含むことができる。コード232はまた、本明細書に記載される空間オーディオナビゲーションシステム及び方法を実施するための、コントローラ204によって実行可能なプログラム命令を含んでもよいが、これらに限定されない。データ234はまた、現実世界の地図情報、オーディオファイル、又は本明細書に記載される空間オーディオナビゲーションシステムによって使用することができる他のデータも含むことができるが、これらに限定されない。
各種実施形態では、コントローラ204は、1つのプロセッサを含むユニプロセッサシステム、又はいくつかのプロセッサ(例えば、2個、4個、8個、若しくは別の適切な数)を含むマルチプロセッサシステムであってもよい。コントローラ204は、任意の好適な命令セットアーキテクチャを実装するように構成された中央処理装置(CPU)を含んでもよく、その命令セットアーキテクチャで定義された命令を実行するように構成されてもよい。例えば、各種実施形態では、コントローラ204は、x86、PowerPC、SPARC、RISC、若しくはMIPS命令セットアーキテクチャ(ISA)、又は任意の他の好適なISAなどの、様々なISAのいずれかを実装する汎用プロセッサ又は組み込みプロセッサを含んでもよい。マルチプロセッサシステムでは、プロセッサの各々は、必ずしもではないが、同一のISAを共通して実装してもよい。コントローラ204は、スカラ方式、スーパースカラ方式、パイプライン方式、スーパーパイプライン方式、アウトオブオーダ方式、インオーダ方式、スペキュレーティブ方式、非スペキュレーティブ方式など、又はそれらの組み合わせを含む、任意のマイクロアーキテクチャを採用してもよい。コントローラ204は、マイクロコーディング技術を実施する回路を含んでもよい。コントローラ204は、各々が命令を実行するように構成された1つ以上のプロセシングコアを含んでもよい。コントローラ204は、任意のサイズ及び任意の構成(セットアソシアティブ方式、ダイレクトマップ方式など)を採用することができる、1つ以上のレベルのキャッシュを含んでもよい。いくつかの実施形態では、コントローラ204は、任意の好適なグラフィック処理回路を含むことができる、少なくとも1つのグラフィック処理ユニット(GPU)を含むことができる。概して、GPUは、フレームバッファに表示されることになるオブジェクト(例えば、フレーム全体に対するピクセルデータを含むもの)をレンダリングするように構成されてもよい。GPUは、グラフィック演算の一部若しくは全て、又は特定のグラフィック演算のハードウェア高速化を実行するグラフィックソフトウェアを実行することができる、1つ以上のグラフィックプロセッサを含んでもよい。いくつかの実施形態では、コントローラ204は、ビデオ及び/又は画像を処理してレンダリングするための1つ以上の他の構成要素、例えば、画像信号プロセッサ(ISP)、コーダ/デコーダ(コーデック)などを含んでもよい。いくつかの実施形態では、コントローラ204は、少なくとも1つのシステムオンチップ(SOC)を含むことができる。
メモリ230は、ダイナミックランダムアクセスメモリ(DRAM)、同期DRAM(SDRAM)、ダブルデータレート(DDR、DDR2、DDR3など)SDRAM(mDDR3などのモバイルバージョンのSDRAM又はLPDDR2などの低電力バージョンのSDRAMを含む)、RAMBUS DRAM(RDRAM)、スタティックRAM(SRAM)などの、任意のタイプのメモリを含んでもよい。いくつかの実施形態では、1つ以上のメモリデバイスは、シングルインラインメモリモジュール(SIMM)、デュアルインラインメモリモジュール(DIMM)などのメモリモジュールを形成するために回路基板上で結合されてもよい。代わりに、デバイスは、システムをチップオンチップ構成、パッケージオンパッケージ構成、又はマルチチップモジュール構成で実装する集積回路を搭載してもよい。
いくつかの実施形態では、HMD 200は、ユーザの環境に関する情報(ビデオ、深度情報、照明情報など)、及びユーザに関する情報(例えば、ユーザの表情、眼球の移動、手のジェスチャなど)を収集するセンサ220を含んでもよい。センサ220は、収集された情報をHMD 200のコントローラ204に提供してもよい。センサ220は、可視光カメラ(例えば、ビデオカメラ)、赤外線(infrared、IR)カメラ、IR照明光源を有するIRカメラ、光検出及び測距(Light Detection and Ranging、LIDAR)放射装置及び受光器/検出器、並びにレーザ放射装置及び受光器/検出器を有するレーザベースのセンサのうちの1つ以上を含んでもよいが、これらに限定されない。
HMD 200は、現実世界に対するHMD 200、したがってユーザの頭部の位置、向き、及び動きを検出するための少なくとも1つの慣性測定ユニット(IMU)206を含んでもよい。IMU 206の代わりに、又はそれに加えて、HMD 200は、ジャイロスコープ、姿勢センサ、コンパス、又は現実世界に対するHMD 200、したがってユーザの頭部の位置、向き、及び動きを検出するための他のセンサ技術を含んでもよい。
HMD 200は、HMD 200の現実世界の位置を判定することを可能にする1つ以上の位置センサ、例えば、GPS(全地球測位システム)技術センサ、dGPS(差分GPS)技術センサ、カメラ、屋内測位技術センサ、SLAM(同時ローカライゼーション及びマッピング)技術センサなどを含んでもよい。
HMD 200は、(例えば、右オーディオ210A及び左オーディオ210B出力構成要素を介して)バイノーラルオーディオ出力を提供することができる。例えば、右オーディオ210A及び左オーディオ210Bは、HMD 200に一体化され、かつユーザの右耳及び左耳それぞれに又はその上に配置されたオーバーイヤースピーカ又はイヤピースであってもよい。別の実施例として、右オーディオ210A及び左オーディオ210Bは、有線又は無線接続によってHMD 200に結合された左右のイヤホン又はヘッドフォンであってもよい。HMDは、有線又は無線接続を介して右212A及び左212Bオーディオチャネルを右オーディオ210A及び左オーディオ210B出力構成要素に送信してもよい。
いくつかの実施形態では、空間オーディオナビゲーションシステムは、HMD 200に統合されてもよい。しかしながら、図2Cに示すようないくつかの実施形態では、図1A及び図1Bに示すようなモバイル多目的デバイス100は、有線又は無線接続を介してHMD 200に接続されてもよい。モバイル多目的デバイス100は、空間オーディオナビゲーションシステムの機能をサポートして、HMD 200のIMU 206から頭部位置及び動きの情報を受信し、HMDのバイノーラルオーディオスピーカ又はイヤピース210A及び210B上で再生されることになる右212A及び左212BオーディオチャネルをHMD 200に送信することができる。
図3は、いくつかの実施形態に係る、空間オーディオナビゲーションシステム300の構成要素及び入力を示す。空間オーディオナビゲーションシステム300は、図1A及び図1Bに示すようなモバイル多目的デバイス100及びヘッドセット108によって、又は図2A及び図2Bに示すようなHMD 200によって、又は図2Cに示すようなモバイル多目的デバイス100及びHMD 200によって、実装されてもよい。より一般的には、実施形態は、バイノーラルオーディオ出力を含み、かつ頭部の動き及び向き追跡を提供する、任意のデバイス又はシステムに実装されてもよい。
加えて、空間オーディオナビゲーションシステム300の実施形態は、車両の位置及び向き技術を使用して、車両の位置、動き、及び向きを判定し、かつ車両のスピーカシステムを使用して、指向性音を出力して、目標位置まで運転している間にユーザを案内する、車両用A/Vシステム、並びに、モバイル多目的デバイス又は他の技術を使用して、家庭用スピーカシステムを使用して指向性音を出力してユーザを案内している間に、ユーザの位置、向き、及び移動を判定する、家又は他の建造物に実装することができる。
空間オーディオナビゲーションシステム300の実施形態では、現在位置、目標位置、及び地図情報を経路探索構成要素302に入力して、ユーザの現在位置と目標位置との間の現実世界の経路304を判定することができる。ユーザの現実世界の現在位置は、デバイスの位置技術(例えば、GPS技術)によって判定することができる。現実世界の目標位置は、例えば、デバイス上の空間オーディオナビゲーションシステム300へのインターフェースを介してユーザによって提供されてもよく、又は別の方法で、空間オーディオナビゲーションシステム300によって判定、若しくは空間オーディオナビゲーションシステム300に入力されてもよい。現実世界の地図情報は、例えば、デバイス上の地図又はナビゲーションアプリケーションによって使用される地図情報のデータベースから提供されてもよい。
経路304が判定された後に、空間オーディオナビゲーションシステム300のナビゲーション構成要素306は、ヘッドセットを介して再生される指向性オーディオを使用して、経路304上でユーザを現在位置から目標位置に案内することができる。ユーザの現在位置は、デバイスによって追跡されて、ナビゲーション構成要素306に入力されてもよい。加えて、ヘッドセット又はHMDのセンサによって頭部の向き及び動きを追跡して、ナビゲーション構成要素306に入力することができる。次いで、ナビゲーション構成要素306は、ユーザが現実世界で移動するときに、オーディオ源によって提供されるオーディオの指向性を調整して、経路304に沿ってユーザを目標位置に案内する。いくつかの実施形態では、オーディオの仮想指向性は、音量、周波数、及び残響を含むがこれらに限定されない、左及び/又は右オーディオチャネルへのオーディオ出力の1つ以上の様相を減衰させることによって、調整されてもよい。オーディオの音量及び種類などのオーディオの他の様相を、入力に基づいて調整して、経路304に沿ってユーザを目標位置に案内するのを支援することができる。
空間オーディオナビゲーションシステム300は、有線又は無線接続を介して右312A及び左312Bオーディオチャネルをヘッドセットに出力して、それにより、ユーザは、空間オーディオ感覚で音を聴くことができる。換言すれば、ユーザは、正確な距離及び方向を有する現実世界の位置から音が来ているかのように音を聴く。例えば、システム300は、ヘッドセットを介して音を再生して、それにより、ユーザの左、ユーザの右、正面、背後、又はなんらかの角度から来る音をユーザが聴くことができる。音が来ているように思われる方向を変更して、経路304上でユーザを案内することができる。例えば、ユーザが経路304上の左折に近づくと、音は、左に移動されてもよい。いくつかの実施形態では、システム300は、音の音量を変調して、ユーザに距離の感覚を与える、例えば、3フィート、10フィート、又は50フィート離れたところから音が来ているかのように思わせることができる。音量を調整する代わりに、又はそれに加えて、周波数及び残響を含むがこれらに限定されない、オーディオの他の様相を減衰させて、オーディオの仮想距離に影響を及ぼすことができる。いくつかの実施形態では、システム300は、検出されたイベントに基づいて、例えば、ユーザが曲がり目を逃した又は障害物に近づいている場合に警告又は警報音を再生することによって、音を変更することができる。ナビゲーション構成要素306は、1つ以上の空間オーディオナビゲーション方法を使用して、経路304上でユーザを案内することができる。空間オーディオナビゲーション方法は、図5C~図5I、図6A~図6D、及び図7A~図7Cに関連して更に説明する。
図4は、いくつかの実施形態に係る、図3に示すような空間オーディオナビゲーションシステム300によって実施することができる方法の高レベルフローチャートである。400に示すように、空間オーディオナビゲーションシステム300は、現在位置及び目標位置を取得又は判定することができる。ユーザの現実世界の現在位置は、例えば、デバイスの位置技術(例えば、GPU技術)によって判定することができる。現実世界の目標位置は、例えば、デバイス上の空間オーディオナビゲーションシステム300へのインターフェースを介してユーザによって提供されてもよく、又は別の方法で、空間オーディオナビゲーションシステム300によって判定、若しくは空間オーディオナビゲーションシステム300に入力されてもよい。410に示すように、地図情報を取得することができる。現実世界の地図情報は、例えば、デバイス上の地図又はナビゲーションアプリケーションによって使用される地図情報のデータベースから取得されてもよい。現在位置、目標位置、及び地図情報は、経路探索構成要素に入力されてもよい。420に示すように、経路探索構成要素は、1つ以上の経路探索方法を入力情報に適用して、現在位置から目標位置までの現実世界の経路を判定することができる。経路は、ナビゲーション構成要素に入力されてもよい。430に示すように、ナビゲーション構成要素は、1つ以上の空間オーディオ経路探索方法をオーディオ源に適用して、経路に沿ってユーザを目標位置に案内することができる。ユーザの現在位置、頭部の向き、及び動きは、ヘッドセット又はHMDのセンサによって追跡され、ナビゲーション構成要素に入力され、経路とともに空間オーディオ経路探索方法に使用されて、左右のオーディオチャネルを調整して、ユーザに指向性オーディオキューを提供して、ユーザを目標位置に案内することができる。
図5C~図5I、図6A~図6D、及び図7A~図7Cは、図1~図4に示すような空間オーディオナビゲーションシステムの実施形態に使用することができる、様々な空間オーディオナビゲーション方法をグラフィカルに示す。いくつかの実施形態では、使用されることになる特定の方法(単数又は複数)は、ユーザに関する知識、ユーザが何をしているか(例えば、音楽を聴いている、電話通話中、又は何も聴いていない)、地図情報から判定されたような現実世界環境、及びオーディオ源(例えば、該当する場合、ユーザが現在何を聴いているか)を含むがこれらに限定されない1つ以上の要因に基づいて、システムによって自動的に判定されてもよい。いくつかの実施形態では、空間オーディオナビゲーションシステムは、ユーザが空間オーディオナビゲーション方法及び音を選択すること、又は、どの方法(単数又は複数)を使用するか、どんな音を再生するか、音量などを含むがこれらに限定されない、空間オーディオナビゲーションの好みを指定することを可能にするインターフェースを提供してもよい。いくつかの実施形態では、ユーザが、「自転車に乗る」、「歩く」、「走る」、又は「運転」などから選択することができる特定の活動のための所定の設定が存在してもよい。
図5A及び図5Bは、バイノーラルオーディオデバイス(イヤホン又はヘッドフォンなどの右510A及び左510Bオーディオデバイス)を介した従来のオーディオ出力を示す。図5Aは、音がユーザの周囲全体、又は代わりにユーザの右側及び左側から来ているように思われることがあることを示す。図5Bに示すように、ユーザがユーザの頭部を回転させると、従来のシステムでは、音は、ユーザの頭部に対して同じ相対位置に留まる。
図5C~図5Iは、いくつかの実施形態に係る、図3及び図4に示すような空間オーディオナビゲーションシステムによって使用することができる、様々な空間オーディオナビゲーション方法をグラフィカルに示す。
図5Cは、ユーザの前の音の音量を増加させることによって、並びに/又は、ユーザの側面及び背面に対して音の音量を減少させる、若しくは音を遮断することによって、左右のオーディオ出力が調整されて、音がなんらかの距離でユーザの前から来ているかのように思わせる、空間オーディオナビゲーション方法を示す。音量の代わりに、又はそれに加えて、周波数及び残響を含むがこれらに限定されない、オーディオの他の様相を減衰させて、オーディオの仮想距離及び指向性に影響を及ぼすことができる。これにより、ユーザが音に向かって移動して経路をたどるように促す。図5D及び図5Eは、音の方向をユーザの右又は左に移動して、例えば、ユーザが曲がり角に近づいている、又は曲がり角にいるときに、ユーザに経路上で右折又は左折するように促すことができることを示す。
図5C~図5Eの方法は、例えば、現在再生している音の局所方向法で使用されてもよい。この方法では、ユーザは、音楽、ポッドキャスト、又は電話通話などのオーディオ源を聴いている。ユーザがヘッドセットを介して単純なステレオサウンドとしてオーディオ源を聴く代わりに、空間オーディオナビゲーションシステムは、ユーザが経路に従うように移動すべき方向にユーザからなんらかの距離だけ離れたところに音を配置し、経路に沿って音を移動させてユーザに経路をたどるように指示する。
図5C~図5Eの方法はまた、音トンネリング法でも使用することができる。音トンネリング法では、環境内の環境ノイズがサンプリング又はシミュレートされる。例えば、ユーザが森にいる場合、環境ノイズは、木のさらさら音を含んでもよく、又はユーザが街にいる場合、環境ノイズは、群衆及び交通の音を含んでもよい。次いで、この環境ノイズは、空間オーディオナビゲーションシステムによって再生される。ユーザが経路をたどるように移動すべき方向を除いて、ユーザを完全に囲む音に対する障害物が、空間オーディオナビゲーションシステムによって配置される。これにより、ユーザに環境ノイズの方向に経路をたどるように促す音トンネリング効果が生じる。
図5Fは、左右のオーディオ出力が調整されて、ユーザの前の音を遮断することによって、ユーザの前を除いて全ての方向から音が来ているかのように思わせる、空間オーディオナビゲーション方法を示す。これにより、ユーザが音の間隙に向かって移動して経路をたどるように促す。図5Gは、音の間隙の位置をユーザの右又は左に移動して、例えば、ユーザが曲がり角に近づいている、又は曲がり角にいるときに、ユーザに経路上で右折又は左折するように促すことができることを示す。
図5F及び図5Gの方法は、例えば、環境音閉塞法で使用することができる。環境音閉塞法では、環境内のノイズは、空間オーディオナビゲーションシステムによってサンプリング又はシミュレートされ、ユーザに再生される。しかしながら、障害物は、ユーザが経路をたどるように移動すべき方向に配置され、ユーザに面するように向けられる。この障害物は、ユーザが移動すべき方向の環境ノイズを遮断し、環境ノイズの間隙の方向に経路をたどるようにユーザに促す環境ノイズの間隙が存在する効果を引き起こす。
図5Hは、ユーザの背後の音の音量を増加させることによって、並びに/又は、ユーザの側面及び前に対して音の音量を減少させる、若しくは音を遮断することによって、左右のオーディオ出力が調整されて、音がなんらかの距離でユーザの背後から来ているかのように思わせる、空間オーディオナビゲーション方法を示す。これにより、ユーザが音から離れて移動して経路をたどるように促す。音の方向をユーザの背後の右又は左に移動して、例えば、ユーザが曲がり角に近づいている、又は曲がり角にいるときに、ユーザに経路上で左折又は右折するように促すことができる。音量の代わりに、又はそれに加えて、周波数及び残響を含むがこれらに限定されない、オーディオの他の様相を減衰させて、オーディオの仮想距離及び指向性に影響を及ぼすことができる。
図5Hの方法は、例えば、音追尾法で使用することができる。音追尾法では、音(例えば、狼の群れ、列車などの音)が再生され、それにより、音がユーザの背後のなんらかの距離から来ているように思え、ユーザが移動すると、音は、ユーザを「追いかける」又は追従して、経路に沿ってユーザを後押しする。
図5Iは、図5C~図5Hに示すような方法において、図5Cを一例として使用して、空間オーディオナビゲーションシステムが、ヘッドセット又はHMD内のIMUによって検出されて追跡されるようなユーザの頭部の動き及び向きに応じて、左右のオーディオチャネルを調整して、それにより、音が経路上又は経路の方向に留まることを示す。図5Cに示すように、ユーザは、真っ直ぐ前を見ていて、音は、なんらかの距離でユーザの直ぐ前から来ているようにユーザには思える。図5Iでは、ユーザは、ユーザの頭部を左に回転しているが、図5Bに示すようにユーザの頭部とともに回転する代わりに、音の方向は、経路の方向に留まる。
図6A~図6Dは、いくつかの実施形態に係る、空間オーディオナビゲーション方法を更に示す。図6Aは、いくつかの障害物を含む現実世界の環境における、ユーザから目標位置(Xによって表される)までの判定された経路を示す。目標位置は、別の人、アイテム又はオブジェクト、場所、ランドマークなどであってもよい。ユーザの現在位置から目標位置までの経路は、障害物(例えば、建造物、川、フェンスなど)及びルート(例えば、道路、歩道、路地、通路など)の知識を含む地図情報を使用して、空間オーディオナビゲーションシステムによって判定することができる。
図6Bは、音(同心円によって表される)が経路を連続的にたどるように移動される、連続経路トレーシング法を示す。いくつかの実施形態では、音が経路の終端に到達すると、音は、経路の開始に戻り、プロセスは、繰り返される。
図6Cは、音が経路に沿って離散間隔で移動される離散経路トレーシング法を示す。いくつかの実施形態では、音が経路の終端に到達すると、音は、経路の開始に戻り、プロセスは、繰り返される。
図6Dは、音がユーザの背後から、ユーザが経路をたどるように移動する必要がある方向に向かって移動し、ユーザの前のなんらかの距離で停止し、その後繰り返す、音指向性法を示す。音は、ユーザの頭部からなんらかの距離だけ離れて配置されてもよく、例えば、耳優位性に応じて、ユーザの左又は右のいずれかに配置されてもよい。
図7A~図7Cは、いくつかの実施形態に係る、曲がり目に対処するための空間オーディオナビゲーション方法を示す。図7Aは、曲がり目を含む現実世界の環境におけるユーザのために判定された経路を示す。ユーザが曲がり目に近づくと、音を再生して、それにより、音が曲がり目の前かつ左から来ているように思わせることができる。音の音量及び位置は、ユーザが曲がり目に近づくにつれて調整されてもよい。図7Bでは、ユーザが曲がり目に到達すると、音は、音量が増加され、曲がり目の方向に経路をたどることができ、この場合、音は、ユーザの左から来ているかのように思われる。ユーザが音に追従して曲がる場合、音は、ユーザが経路内の別の曲がり目に近づくまで、音量を減少させる、又は消滅することができる。いくつかの実施形態では、特定の音又はトーンをユーザに再生して、ユーザが正しく曲がり、かつ依然として経路上にいることを示してもよい。図7Cに示すように、ユーザが曲がり目を逃した場合、音は、音量を減少させ、移動して、それにより、音がユーザの背後から来ているように思われ、ユーザが曲がり目を逃したことをユーザに促すことができる。あるいは、いくつかの実施形態では、ユーザが曲がり目を逃したときに、警告音が再生されてもよい。いくつかの実施形態では、ユーザが、曲がり目を通過し続ける、又は別の方法でシステムによって判定された経路から外れる場合、システムは、目標位置に対する新たな経路を再計算し、空間オーディオナビゲーション方法を使用して、新しい経路上でユーザに指示し始めてもよい。音量の代わりに、又はそれに加えて、周波数及び残響を含むがこれらに限定されない、オーディオの他の様相を減衰させて、オーディオの仮想距離及び指向性に影響を及ぼすことができる。
例示的な使用事例
以下は、本明細書に記載される空間オーディオナビゲーションシステム及び方法の実施形態のための、いくつかの例示的な非限定的使用事例を提供する。
自転車に乗っている人又はジョギングしている人は、その人のモバイル多目的デバイス上の空間オーディオナビゲーションシステムへのインターフェースを介して(例えば、タッチ又は音声コマンドを使用することによって)、自転車に乗る若しくは走るための5マイルの経路又はループを指定又は要求することができる。次に、ユーザは、音楽再生リストを聴き始めることができ、次いで、空間オーディオナビゲーションシステムは、バイノーラルヘッドセットを介して再生される音楽の指向性を使用して、経路上でユーザを案内することができる。空間オーディオナビゲーション方法のうちの1つ以上を使用することができる。例えば、空間オーディオナビゲーションシステムが、ユーザが経路をたどるように移動すべき方向にユーザからなんらかの距離だけ離れたところに音を配置し、経路に沿って音を移動させてユーザに経路をたどるように指示する、現在再生している音の局所方向法を使用することができる。
ユーザは、ショッピングモール、街、公園、又は他の環境で誰かに会う必要がある場合がある。ユーザは、ユーザのモバイル多目的デバイスを使用して、他の人がいる位置、又は会うための位置を見つけることができる。目標位置は、インターフェースを介して空間オーディオナビゲーションシステムに入力することができる。空間オーディオナビゲーションシステムは、ユーザの現在位置、目標位置、及び地図情報に基づいて経路を生成する。次いで、空間オーディオナビゲーションシステムは、空間オーディオナビゲーション方法(例えば、連続経路トレーシング、離散経路トレーシング、現在再生している音の局所方向、音指向性、音トンネリング、及び/又は環境音閉塞)のうちの1つ以上を使用して、経路上でユーザを目標位置に、したがって他の人に案内することができる。
車両では、空間オーディオナビゲーションシステムを使用して、車両ナビゲーションシステムによって提供される視覚的キュー及び/又は音声指示を拡張してもよい。例えば、ユーザが車両のナビゲーションシステム(内蔵の、又は接続されたモバイル多目的デバイスによって提供される、のいずれか)によってディスプレイスクリーン上に表示されるルートに従っている場合、車両のスピーカによって再生されている音楽又は他のオーディオは、空間オーディオナビゲーションシステムによって指向化されて、指向性オーディオキューを使用してルート上でユーザを案内するのに役立つことができる。例えば、左折が近づいている場合、音楽の音源は、移動されて、音楽が左から来ていると思わせてもよい。空間オーディオナビゲーション技術はまた、ナビゲーションシステムによって提供される音声指示と統合されてもよい。例えば、一番通りでの左折に近づいているとき、システムは、「一番通りで左に曲がります」と言うことができる。しかしながら、ユーザの周囲又は前から来る音声コマンドの代わりに、コマンドを、車両の左から来ているように思わせて、ユーザが曲がる必要がある方向に関する指向性オーディオキューを提供することができる。
ユーザの自宅では、鍵又は財布などのアイテムを置き忘れることがある。モバイル多目的デバイスは、(例えば、デバイスが位置を突き止めることができるアイテム上に配置されたドングル若しくは「ドット」を介して)アイテムの位置を突き止めることができ、又は(例えば、デバイスがアイテムの位置を記録してタグ付けするコンピュータビジョン若しくは他の技術を使用して)アイテムの最後の位置を覚えていることができる。ユーザがアイテムを見つけることができない場合、ユーザは、デバイスにそのアイテムの位置を突き止めるように頼むことができる(例えば、「私の鍵を見つけてください」)。次いで、空間オーディオナビゲーションシステムは、ヘッドセットを介して又は自宅のスピーカシステムを介して再生される指向性オーディオキューを使用して、ユーザをアイテムに案内することができる。
本明細書で説明される方法は、異なる実施形態では、ソフトウェア、ハードウェア、又はそれらの組み合わせで実施されてもよい。加えて、方法のブロックの順序は変更されてもよく、様々な要素の追加、再順序付け、組み合わせ、省略、修正などが行われてもよい。本開示の利益を得る当業者にとって明白であるような、様々な修正及び変更が行われてもよい。本明細書に記載される各種実施形態は、例示的なものであり、限定的なものではない。多くの変形、修正、追加、及び改善が可能である。したがって、単一の事例として本明細書に記載される構成要素について、複数の事例を提供することができる。種々の構成要素、動作及びデータストアの間の境界は、ある程度任意のものであり、特定の動作は、特定の例示的な構成の文脈において示される。機能性の他の割り当てが想定され、以下に続く請求項の範囲内に含まれてもよい。最後に、例示的な構成における別個の構成要素として提示された構造及び機能性は、組み合わされた構造又は構成要素として実施されてもよい。それらの及び他の変形、修正、追加、及び改善は、以下に続く請求項で定義されるように、実施形態の範囲内に含まれてもよい。

Claims (18)

  1. 経路に沿ってユーザを案内するためのシステムであって、モバイルデバイスを備え、前記モバイルデバイスが、
    1つ以上のプロセッサと、
    前記モバイルデバイスの現在位置を検出して追跡するための1つ以上の位置センサと、
    前記1つ以上のプロセッサによって実行可能なプログラム命令を記憶したメモリであって、前記プログラム命令が、
    前記モバイルデバイスの目標位置を判定し、
    前記現在位置から前記目標位置までの経路を判定し、
    前記経路に対する前記モバイルデバイスの前記現在位置に基づいて、バイノーラルオーディオデバイスを介して再生される音の仮想指向性及び距離を制御し、
    前記経路に対する前記モバイルデバイスの前記現在位置に基づいて、前記バイノーラルオーディオデバイスを介して再生される音の仮想指向性及び距離を制御する際に、前記プログラム命令は、前記音の仮想指向性及び距離に関連する音の仮想発生源が前記経路に沿って連続的に移動される空間オーディオナビゲーション方法を適用する、ことを含むシステム。
  2. 有線又は無線接続によって前記モバイルデバイスに接続されるバイノーラルオーディオデバイスを更に含み、
    前記プログラム命令が、前記バイノーラルオーディオデバイスの動き及び向きを示すデータに少なくとも部分的に基づいて、前記バイノーラルオーディオデバイスを介して再生される前記音の前記仮想指向性を調整するように、前記1つ以上のプロセッサによって更に実行可能である、請求項1に記載のシステム。
  3. 前記プログラム命令が、地図情報に少なくとも部分的に基づいて、前記現在位置から前記目標位置までの前記経路を判定するように、前記1つ以上のプロセッサによって更に実行可能である、請求項1に記載のシステム。
  4. 前記システムが、前記バイノーラルオーディオデバイスを更に含み、前記バイノーラルオーディオデバイスが、左右のオーディオ出力構成要素を含み、前記バイノーラルオーディオデバイスを介して再生される前記音の前記仮想指向性及び距離が、有線又は無線接続を介して前記モバイルデバイスによって前記バイノーラルオーディオデバイスの前記左右のオーディオ出力構成要素に送信される、左右のオーディオチャネルの音量、周波数、又は残響のうちの1つ以上を調整することによって制御される、請求項1に記載のシステム。
  5. 前記バイノーラルオーディオデバイスを介して再生される前記音が、音楽、電話会話、オーディオブック、ポッドキャスト、ラジオ放送、現実環境からサンプリングされた若しくは現実環境に対してシミュレートされた環境ノイズ、トーン及びホワイトノイズを含むシミュレートされた音、又は録音された音のうちの1つ以上を含む、請求項1に記載のシステム。
  6. 前記経路に対する前記モバイルデバイスの前記現在位置に基づいて、前記バイノーラルオーディオデバイスを介して再生される音の仮想指向性及び距離を制御する際に、前記プログラム命令は、前記音の仮想指向性及び距離に関連する音の仮想発生源が前記経路に沿って離散間隔で移動される空間オーディオナビゲーション方法を適用するように、前記1つ以上のプロセッサによって更に実行可能である、請求項1に記載のシステム。
  7. 前記経路に対する前記モバイルデバイスの前記現在位置に基づいて、前記バイノーラルオーディオデバイスを介して再生される音の仮想指向性及び距離を制御する際に、前記プログラム命令は、前記音が前記経路に沿った方向であり前記バイノーラルオーディオデバイスの前記現在位置からの一定距離に配置される空間オーディオナビゲーション方法を適用するように、前記1つ以上のプロセッサによって更に実行可能である、請求項1に記載のシステム。
  8. 前記経路に対する前記モバイルデバイスの前記現在位置に基づいて、前記バイノーラルオーディオデバイスを介して再生される音の仮想指向性及び距離を制御する際に、前記プログラム命令は、前記音の仮想指向性及び距離に関連する音の仮想発生源が前記経路上の前記バイノーラルオーディオデバイスの前記現在位置の背後の位置から、前記経路上の前記バイノーラルオーディオデバイスの前記現在位置の前方の位置へ移動する空間オーディオナビゲーション方法を適用するように、前記1つ以上のプロセッサによって更に実行可能である、請求項1に記載のシステム。
  9. 前記経路に対する前記モバイルデバイスの前記現在位置に基づいて、前記バイノーラルオーディオデバイスを介して再生される音の仮想指向性及び距離を制御する際に、前記プログラム命令は、サンプリングされた又はシミュレートされた環境ノイズが前記経路に沿った方向に再生され、かつ他の方向に遮断されて、音トンネリング効果を引き起こす空間オーディオナビゲーション方法を適用するように、前記1つ以上のプロセッサによって更に実行可能である、請求項1に記載のシステム。
  10. 前記経路に対する前記モバイルデバイスの前記現在位置に基づいて、前記バイノーラルオーディオデバイスを介して再生される音の仮想指向性及び距離を制御する際に、前記プログラム命令は、サンプリングされた又はシミュレートされた環境ノイズが前記経路に沿った方向に遮断され、かつ他の方向に再生されて、環境ノイズの間隙を引き起こす空間オーディオナビゲーション方法を適用するように、前記1つ以上のプロセッサによって更に実行可能である、請求項1に記載のシステム。
  11. 前記経路に対する前記モバイルデバイスの前記現在位置に基づいて、前記バイノーラルオーディオデバイスを介して再生される音の仮想指向性及び距離を制御する際に、前記プログラム命令は、前記音が前記経路の方向とは反対の方向に再生される空間オーディオナビゲーション方法を適用するように、前記1つ以上のプロセッサによって更に実行可能である、請求項1に記載のシステム。
  12. 前記システムが、前記バイノーラルオーディオデバイスを更に含み、前記バイノーラルオーディオデバイスが、ヘッドセットであり、前記モバイルデバイスが、モバイル多目的デバイスである、請求項1に記載のシステム。
  13. 前記システムが、前記バイノーラルオーディオデバイスを更に含み、
    前記モバイルデバイスが、ヘッドマウントディスプレイデバイスであり、
    前記バイノーラルオーディオデバイスが、ヘッドセット又は前記ヘッドマウントディスプレイデバイスに統合されたスピーカのうちの一つである、請求項1に記載のシステム。
  14. 1つ以上のプロセッサを備えるモバイルデバイスによって、
    現在位置及び目標位置を判定することと、
    前記現在位置から前記目標位置までの経路を判定することと、
    前記経路に対する前記モバイルデバイスの前記現在位置に基づいて、バイノーラルオーディオデバイスの左右のオーディオ出力構成要素に送信される左右のオーディオチャネルの音量、周波数、又は残響のうちの1つ以上を調整して、前記バイノーラルオーディオデバイスを介して再生される音の指向性及び距離を制御することと、
    を実行することを含み、
    前記バイノーラルオーディオデバイスを介して再生される音の指向性及び距離を制御することによって、前記音の指向性及び距離に関連する音の仮想発生源を前記経路に沿って連続的に移動させるナビゲーションキューがユーザに提供される、方法。
  15. 前記モバイルデバイスの前記現在位置を検出して追跡するように構成された前記モバイルデバイスの1つ以上の位置センサによって提供される位置データに基づいて、前記現在位置を判定することを更に含む、請求項14に記載の方法。
  16. 地図情報に少なくとも部分的に基づいて、前記現在位置から前記目標位置までの前記経路を判定することを更に含む、請求項14に記載の方法。
  17. 前記バイノーラルオーディオデバイスの動き及び向きを示すデータに少なくとも部分的に基づいて、前記バイノーラルオーディオデバイスの前記左右のオーディオ出力構成要素に送信される前記左右のオーディオチャネルの音量、周波数、又は残響のうちの1つ以上を調整することを更に含む、請求項14に記載の方法。
  18. オーディオヘッドセットであって、
    左右のオーディオ出力構成要素と、
    前記オーディオヘッドセットの動き及び向きを検出して追跡する1つ以上の動きセンサと、
    を含む、
    オーディオヘッドセットと、
    モバイル多目的デバイスであって、
    1つ以上のプロセッサと、
    前記モバイル多目的デバイスの位置を検出して追跡する1つ以上の位置センサと、
    前記1つ以上のプロセッサによって実行可能なプログラム命令であって、
    目標位置を判定し、
    位置センサデータに少なくとも部分的に基づいて、前記モバイル多目的デバイスの位置を判定し、
    地図情報に少なくとも部分的に基づいて、現在位置から前記目標位置までの経路を判定し、
    位置センサデータ及び動きセンサデータに少なくとも部分的に基づいて、有線又は無線接続を介してバイノーラルオーディオデバイスの前記左右のオーディオ出力構成要素に送信される左右のオーディオチャネルの音量、周波数、又は残響のうちの1つ以上を調整して、前記バイノーラルオーディオデバイスを介して再生される音の指向性及び距離を制御する、
    プログラム命令を含むメモリと、
    を含む、モバイル多目的デバイスと、
    を備え、
    前記バイノーラルオーディオデバイスを介して再生される音の仮想指向性及び距離を制御する際に、前記プログラム命令により、前記音の仮想指向性及び距離に関連する音の仮想発生源が前記経路に沿って連続的に移動される空間オーディオナビゲーション方法を適用する、空間オーディオナビゲーションシステム。
JP2020538765A 2017-09-27 2018-09-25 空間オーディオナビゲーション Active JP7053855B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762564197P 2017-09-27 2017-09-27
US62/564,197 2017-09-27
PCT/US2018/052642 WO2019067443A1 (en) 2017-09-27 2018-09-25 AUDIO SPACE NAVIGATION

Publications (3)

Publication Number Publication Date
JP2020535446A JP2020535446A (ja) 2020-12-03
JP2020535446A5 JP2020535446A5 (ja) 2021-01-28
JP7053855B2 true JP7053855B2 (ja) 2022-04-12

Family

ID=63841072

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020538765A Active JP7053855B2 (ja) 2017-09-27 2018-09-25 空間オーディオナビゲーション

Country Status (6)

Country Link
US (2) US11709068B2 (ja)
EP (1) EP3673240A1 (ja)
JP (1) JP7053855B2 (ja)
KR (1) KR102545721B1 (ja)
CN (1) CN111148969B (ja)
WO (1) WO2019067443A1 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6559921B1 (ja) * 2019-03-06 2019-08-14 株式会社ネイン 音声情報提供システム、情報処理端末の制御方法、情報処理端末の制御プログラム、音声出力装置の制御方法、及び、音声出力装置の制御プログラム
AT522549B1 (de) * 2019-04-18 2022-09-15 Dreamwaves Gmbh Verfahren zum Leiten von Verkehrsteilnehmern
KR102152675B1 (ko) * 2019-04-29 2020-09-07 김희성 러닝용 음성지원 이어셋
US11356793B2 (en) * 2019-10-01 2022-06-07 Qualcomm Incorporated Controlling rendering of audio data
CN110989831B (zh) * 2019-11-15 2021-04-27 歌尔股份有限公司 音频设备的控制方法、音频设备及存储介质
CN111010641A (zh) * 2019-12-20 2020-04-14 联想(北京)有限公司 信息处理方法、耳机和电子设备
KR20220111715A (ko) * 2019-12-27 2022-08-09 후아웨이 테크놀러지 컴퍼니 리미티드 데이터 생성 방법 및 장치
US11089427B1 (en) * 2020-03-31 2021-08-10 Snap Inc. Immersive augmented reality experiences using spatial audio
CN111741405B (zh) * 2020-06-05 2021-12-21 北京搜狗智能科技有限公司 一种提醒方法、装置、耳机和服务器
US11750998B2 (en) 2020-09-30 2023-09-05 Qualcomm Incorporated Controlling rendering of audio data
US11537120B2 (en) * 2020-11-17 2022-12-27 Ford Global Technologies, Llc Systems and methods for providing enhanced feedback on a personal communication device used for vehicle maneuvering
US11743670B2 (en) 2020-12-18 2023-08-29 Qualcomm Incorporated Correlation-based rendering with multiple distributed streams accounting for an occlusion for six degree of freedom applications
WO2022151336A1 (en) * 2021-01-15 2022-07-21 Harman International Industries, Incorporated Techniques for around-the-ear transducers
US11315335B1 (en) 2021-03-30 2022-04-26 Honda Motor Co., Ltd. Mixed-reality interaction with touch device
FR3128285B1 (fr) 2021-10-15 2023-11-10 Runblind Système de guidage d’un utilisateur par un signal sonore, et procédé de guidage correspondant
US20230179942A1 (en) * 2021-12-02 2023-06-08 At&T Intellectual Property I, L.P. Audio-based visual orientation in a user-perceived environment
FR3132363A1 (fr) * 2022-02-02 2023-08-04 Renault Paire de lunettes connectée pour utilisateur d’un véhicule
CN114461022A (zh) * 2022-02-09 2022-05-10 维沃移动通信有限公司 终端的可分离模组管理方法、装置及终端

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040030491A1 (en) 2002-08-06 2004-02-12 Hewlett-Packard Development Company, L.P. Method and arrangement for guiding a user along a target path
JP2015508487A (ja) 2011-12-15 2015-03-19 クゥアルコム・インコーポレイテッドQualcomm Incorporated ナビゲーションサウンドスケーピング
WO2016178820A1 (en) 2015-05-06 2016-11-10 Google Inc. Binaural navigation cues

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3815270B2 (ja) * 2001-07-17 2006-08-30 ヤマハ株式会社 ナビゲーション装置及び制御プログラム
CN101055494B (zh) * 2006-04-13 2011-03-16 上海虚拟谷数码科技有限公司 基于空间索引立方体全景视频的虚拟场景漫游方法及其系统
JP5181200B2 (ja) * 2006-07-25 2013-04-10 幹 安間 視覚障害者向けナビシステム及びその作動方法
JP5285626B2 (ja) 2007-03-01 2013-09-11 ジェリー・マハバブ 音声空間化及び環境シミュレーション
KR101384528B1 (ko) 2007-03-02 2014-04-11 삼성전자주식회사 입체 음향을 이용한 방향 안내 처리 방법 및 그를 적용한네비게이션 시스템
GB2500343B (en) * 2010-11-30 2014-02-12 Ibm Method, device and computer program for mapping moving direction by sounds
US8660581B2 (en) * 2011-02-23 2014-02-25 Digimarc Corporation Mobile device indoor navigation
JP5112547B2 (ja) * 2011-08-09 2013-01-09 パイオニア株式会社 ナビゲーション装置、経路案内方法、経路案内プログラム及び記憶媒体
CN104321622B (zh) * 2012-06-05 2017-09-08 苹果公司 情景感知语音引导
US9997069B2 (en) 2012-06-05 2018-06-12 Apple Inc. Context-aware voice guidance
US10156455B2 (en) 2012-06-05 2018-12-18 Apple Inc. Context-aware voice guidance
EP2685217A1 (en) * 2012-07-12 2014-01-15 GN Store Nord A/S A hearing device providing spoken information on the surroundings
WO2014014145A1 (ko) * 2012-07-19 2014-01-23 엘지전자 주식회사 뇌파 신호를 이용하는 헤드 마운트 디스플레이 장치 및 그 제어 방법
US9301069B2 (en) * 2012-12-27 2016-03-29 Avaya Inc. Immersive 3D sound space for searching audio
KR20140129654A (ko) * 2013-04-30 2014-11-07 인텔렉추얼디스커버리 주식회사 헤드 마운트 디스플레이 및 이를 이용한 오디오 콘텐츠 제공 방법
CN203313378U (zh) * 2013-07-12 2013-11-27 黄通兵 一种便于收纳的扬声器连接装置和新型眼镜式设备
US11022456B2 (en) 2013-07-25 2021-06-01 Nokia Technologies Oy Method of audio processing and audio processing apparatus
US20160116298A1 (en) * 2014-10-24 2016-04-28 Leadnav Systems, Llc System and method for using audible waypoints in mobile navigation
US9652124B2 (en) * 2014-10-31 2017-05-16 Microsoft Technology Licensing, Llc Use of beacons for assistance to users in interacting with their environments
CN105372026B (zh) * 2015-10-15 2018-10-26 Tcl移动通信科技(宁波)有限公司 一种麦克风拾音结构路径的气密性检测装置及其方法
WO2018107372A1 (zh) * 2016-12-14 2018-06-21 深圳前海达闼云端智能科技有限公司 一种声音处理方法、装置、电子设备及计算机程序产品
CN107036605B (zh) * 2017-03-14 2020-05-22 广东小天才科技有限公司 一种基于可穿戴设备进行导航的方法及可穿戴设备

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040030491A1 (en) 2002-08-06 2004-02-12 Hewlett-Packard Development Company, L.P. Method and arrangement for guiding a user along a target path
JP2015508487A (ja) 2011-12-15 2015-03-19 クゥアルコム・インコーポレイテッドQualcomm Incorporated ナビゲーションサウンドスケーピング
WO2016178820A1 (en) 2015-05-06 2016-11-10 Google Inc. Binaural navigation cues

Also Published As

Publication number Publication date
CN111148969A (zh) 2020-05-12
CN111148969B (zh) 2023-09-29
EP3673240A1 (en) 2020-07-01
US11709068B2 (en) 2023-07-25
US20230332914A1 (en) 2023-10-19
WO2019067443A1 (en) 2019-04-04
KR102545721B1 (ko) 2023-06-21
JP2020535446A (ja) 2020-12-03
KR20200046075A (ko) 2020-05-06
US20200264006A1 (en) 2020-08-20

Similar Documents

Publication Publication Date Title
JP7053855B2 (ja) 空間オーディオナビゲーション
CN111194561B (zh) 预测性的头部跟踪的双耳音频渲染
US10362429B2 (en) Systems and methods for generating spatial sound information relevant to real-world environments
US10701509B2 (en) Emulating spatial perception using virtual echolocation
JP6689265B2 (ja) 入力機構を有するヘッドセットを用いたユーザーとユーザーの環境との間のインタラクションの容易化
US10559117B2 (en) Interactions and scaling in virtual reality
US9746338B2 (en) Binaural navigation cues
US8718930B2 (en) Acoustic navigation method
US10609462B2 (en) Accessory device that provides sensor input to a media device
CN109906424B (zh) 用于虚拟现实系统的输入控制器稳定技术
JP2019502193A (ja) 仮想現実環境におけるナビゲーション用制御システム
JP6932206B2 (ja) 空間オーディオの提示のための装置および関連する方法
US11189057B2 (en) Provision of virtual reality content
WO2021241431A1 (ja) 情報処理装置、情報処理方法、及びコンピュータが読み取り可能な記録媒体
US10667073B1 (en) Audio navigation to a point of interest
US11647260B2 (en) Content event mapping
US20230122450A1 (en) Anchored messages for augmented reality
WO2022196199A1 (ja) 情報処理装置、情報処理方法、及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200416

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210325

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210625

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210706

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220214

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220316

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220331

R150 Certificate of patent or registration of utility model

Ref document number: 7053855

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150