JP2020520576A - 空間オーディオの提示のための装置および関連する方法 - Google Patents
空間オーディオの提示のための装置および関連する方法 Download PDFInfo
- Publication number
- JP2020520576A JP2020520576A JP2019558784A JP2019558784A JP2020520576A JP 2020520576 A JP2020520576 A JP 2020520576A JP 2019558784 A JP2019558784 A JP 2019558784A JP 2019558784 A JP2019558784 A JP 2019558784A JP 2020520576 A JP2020520576 A JP 2020520576A
- Authority
- JP
- Japan
- Prior art keywords
- predetermined
- real
- real object
- audio
- spatial audio
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
- H04S7/303—Tracking of listener position or orientation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/20—Arrangements for obtaining desired frequency or directional characteristics
- H04R1/32—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
- H04R1/40—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
- H04R1/406—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/005—Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R5/00—Stereophonic arrangements
- H04R5/027—Spatial or constructional arrangements of microphones, e.g. in dummy heads
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S3/00—Systems employing more than two channels, e.g. quadraphonic
- H04S3/008—Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/01—Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/11—Positioning of individual sound objects, e.g. moving airplane, within a sound field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/15—Aspects of sound capture and related signal processing for recording or reproduction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/01—Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
Abstract
Description
少なくとも1つのプロセッサと、
コンピュータプログラムコードを含む少なくとも1つのメモリと、を備えた装置であって、
前記コンピュータプログラムコードは、前記少なくとも1つのプロセッサに実行されると、前記装置に、
実在場面における移動可能な、所定の実在物体に関連付けられ、前記実在場面の所定の方向から発せられると知覚されるような聴覚提示用のオーディオを含む空間オーディオに関して、
前記実在場面のセンサデータにおける前記所定の実在物体の特定に基づいて前記所定の実在物体の所在地が判定されて、それにより前記空間オーディオの前記所定の方向を、前記実在場面の前記所定の実在物体の前記所在地に対応するように定められるものとして、
前記センサデータは前記実在場面の限られた領域を網羅するセンサ視野を有する少なくとも1つのセンサにより、任意の時点で得られるもので、
前記センサデータにおいて前記所定の実在物体が特定できないことで、前記所定の実在物体の現在の所在地が不明であることに基づいて、
前記空間オーディオのユーザに、前記実在場面で前記実在物体が特定された判定済み所在地への方向を含む、判定済み方向を含む所定の方向から発せられるように知覚されるような聴覚的提示を行うことと、前記ユーザの現在の視野と、前記センサの現在の視野との一方または両方が前記判定済み所在地を含む位置に移動したことに基づいて、少なくとも前記所定の実在物体が前記センサデータにおいて特定されるまで、前記空間オーディオの前記所定の方向を、前記判定済み方向から、前記ユーザの前記現在の視野外の方向に修正することを少なくとも実行させる。
i)前記空間オーディオの音源が環境的オーディオとして知覚されるように、所定の方向を持たないように空間オーディオを提示することと、
ii)前記空間オーディオの提示を停止することと、
のうちの少なくとも一方を実行させる。
i)前記空間オーディオが環境的オーディオとして知覚されるように、所定の方向を持たないように空間オーディオを提示することと、
ii)前記空間オーディオの提示を終了することと、
のうちの少なくとも一方を実行する。
前記空間オーディオを提示するスピーカを有し、前記ユーザが目の前に前記実在場面を見ることを可能にするように構成された拡張現実デバイスと、
前記空間オーディオを提示するスピーカを有し、前記ユーザに、カメラが撮影し、前記ユーザの前記現在の視野を定義する前記実在場面の仮想現実視界を提供するように構成された仮想現実デバイスと、
前記拡張現実デバイスまたは前記仮想現実デバイスと通信する装置と、
のうちの1つを備える。
カメラであって、前記センサデータは前記実在場面のカメラ映像を含み、前記センサ視野は前記カメラの視野を含み、前記所定の実在物体の特定は、前記装置と通信する実在物体特定モジュールによる前記カメラ映像内の前記所定の実在物体の自動視覚的特定を含むようにするカメラと、
オーディオセンサアレイであって、前記センサデータは前記実在場面のオーディオマップを含み、前記オーディオマップは前記実在場面からオーディオが到来する方向を含み、前記センサ視野は前記オーディオセンサアレイの視野を含み、前記オーディオセンサアレイの視野は前記オーディオセンサアレイにより前記実在場面においてオーディオを検出する領域を示し、前記所定の実在物体の自動特定は、前記前記装置と通信する実在物体特定モジュールによる前記オーディオマップ内の前記所定の実在物体の自動聴覚的特定を含むようにするオーディオセンサアレイと、
のうちの少なくとも1つを備える。
実在場面における移動可能な、所定の実在物体に関連付けられ、前記実在場面の所定の方向から発せられると知覚されるような聴覚提示用のオーディオを含む空間オーディオに関して、
前記実在場面のセンサデータにおける前記所定の実在物体の特定に基づいて前記所定の実在物体の所在地が判定されて、それにより前記空間オーディオの前記所定の方向を、前記実在場面の前記所定の実在物体の前記所在地に対応するように定められるものとして、
前記センサデータは前記実在場面の限られた領域を網羅するセンサ視野を有する少なくとも1つのセンサにより、任意の時点で得られるもので、
前記センサデータにおいて前記所定の実在物体が特定できないことで、前記所定の実在物体の現在の所在地が不明であることに基づいて、
前記空間オーディオのユーザに、前記実在場面で前記実在物体が特定された判定済み所在地への方向を含む、判定済み方向を含む所定の方向から発せられるように知覚されるような聴覚的提示を行うことと、前記ユーザの現在の視野と、前記センサの現在の視野との一方または両方が前記判定済み所在地を含む位置に移動したことに基づいて、少なくとも前記所定の実在物体が前記センサデータにおいて特定されるまで、前記空間オーディオの前記所定の方向を、前記判定済み方向から、前記ユーザの前記現在の視野外の方向に修正することと、
を含む。
実在場面における移動可能な、所定の実在物体に関連付けられ、前記実在場面の所定の方向から発せられると知覚されるような聴覚提示用のオーディオを含む空間オーディオに関して、
前記実在場面のセンサデータにおける前記所定の実在物体の特定に基づいて前記所定の実在物体の所在地が判定されて、それにより前記空間オーディオの前記所定の方向を、前記実在場面の前記所定の実在物体の前記所在地に対応するように定められるものとして、
前記センサデータは前記実在場面の限られた領域を網羅するセンサ視野を有する少なくとも1つのセンサにより、任意の時点で得られるもので、
前記センサデータにおいて前記所定の実在物体が特定できないことで、前記所定の実在物体の現在の所在地が不明であることに基づいて、
前記空間オーディオのユーザに、前記実在場面で前記実在物体が特定された判定済み所在地への方向を含む、判定済み方向を含む所定の方向から発せられるように知覚されるような聴覚的提示を行うことと、前記ユーザの現在の視野と、前記センサの現在の視野との一方または両方が前記判定済み所在地を含む位置に移動したことに基づいて、少なくとも前記所定の実在物体が前記センサデータにおいて特定されるまで、前記空間オーディオの前記所定の方向を、前記判定済み方向から、前記ユーザの前記現在の視野外の方向に修正することと、
を含む方法を実行する。
前記実在場面のセンサデータにおける前記所定の実在物体の特定に基づいて前記所定の実在物体の所在地が判定されて、それにより前記空間オーディオの前記所定の方向を、前記実在場面の前記所定の実在物体の前記所在地に対応するように定められるものとして、
前記センサデータは前記実在場面の限られた領域を網羅するセンサ視野を有する少なくとも1つのセンサにより、任意の時点で得られるもので、
前記センサデータにおいて前記所定の実在物体が特定できないことで、前記所定の実在物体の現在の所在地が不明であることに基づいて、
前記空間オーディオのユーザに、前記実在場面で前記実在物体が特定された判定済み所在地への方向を含む、判定済み方向を含む所定の方向から発せられるように知覚されるような聴覚的提示を行うことと、前記ユーザの現在の視野と、前記センサの現在の視野との一方または両方が前記判定済み所在地を含む位置に移動したことに基づいて、少なくとも前記所定の実在物体が前記センサデータにおいて特定されるまで、前記空間オーディオの前記所定の方向を、前記判定済み方向から、前記ユーザの前記現在の視野外の方向に修正することを実行するように構成された手段を含む。
実在場面における移動可能な、所定の実在物体に関連付けられ、前記実在場面の所定の方向から発せられると知覚されるような聴覚提示用のオーディオを含む空間オーディオを少なくとも含む拡張現実コンテンツに関して、前記実在場面のセンサデータにおける所定の実在物体の自動特定に基づいて前記所定の実在物体の所在地が判定されて、それにより前記空間オーディオの前記所定の方向を、前記実在場面の前記所定の実在物体の前記所在地に対応するように定められるものとして、前記センサデータは前記実在場面の限られた領域を網羅するセンサ視野を有する少なくとも1つのセンサにより、任意の時点で得られるもので、
前記センサデータにより前記所定の実在物体が現状特定できないことで、前記所定の実在物体の現在の所在地が不明であることに基づいて(1000)、
前記空間オーディオのユーザに、前記実在場面で前記実在物体が特定された最後に把握した所在地を含む最後に把握した方向を含む所定の方向により聴覚的提示を行い、前記ユーザの現在の視野が前記最後に把握した所在地を含む位置に移動したことに基づいて、少なくとも前記所定の実在物体が前記センサデータにおいて特定されるまで、前記空間オーディオの前記所定の方向を、前記最後に把握した方向から、前記ユーザの前記現在の視野外の方向に修正する(1001)。
ウンロードするユーザが使用できるようにされてもよい。そのような例に関連する利点としては、デバイスにさらなる機能性が必要なときにデータをダウンロードする必要性が軽減されることを挙げることができ、これは、ユーザが有効化しないかもしれない機能性のためにそのような事前プログラムされたソフトウェアを記憶するのに十分な容量をデバイスが有することが分かっている例において有用な可能性がある。
プラス・ファンクション節は、列挙された機能を実行するものとして本願明細書に記載された構造、さらに構造上の等価物のみならず、等価な構造も対象とすることを意図される。要するに、釘とねじとは、木製部品を留めるという状況において、釘が円柱状の表面を用いて木製部品同士を固定するのに対し、ねじはらせん状の表面を用いるという点で構造上の等価物ではないかもしれないが、釘とねじとは等価な構造体ではあり得る。
Claims (15)
- 少なくとも1つのプロセッサと、
コンピュータプログラムコードを含む少なくとも1つのメモリと、を備えた装置であって、
前記コンピュータプログラムコードは、前記少なくとも1つのプロセッサに実行されると、前記装置に、
実在場面における移動可能な、所定の実在物体に関連付けられ、前記実在場面の所定の方向から発せられると知覚されるような聴覚提示用のオーディオを含む空間オーディオに関して、
前記実在場面のセンサデータにおける前記所定の実在物体の特定に基づいて前記所定の実在物体の所在地が判定されて、それにより前記空間オーディオの前記所定の方向を、前記実在場面の前記所定の実在物体の前記所在地に対応するように定められるものとして、
前記センサデータは前記実在場面の限られた領域を網羅するセンサ視野を有する少なくとも1つのセンサにより、任意の時点で得られるもので、
前記センサデータにおいて前記所定の実在物体が特定できないことで、前記所定の実在物体の現在の所在地が不明であることに基づいて、
前記空間オーディオのユーザに、前記実在場面で前記実在物体が特定された判定済み所在地への方向を含む、判定済み方向を含む所定の方向から発せられるように知覚されるような聴覚的提示を行うことと、前記ユーザの現在の視野と、前記センサの現在の視野との一方または両方が前記判定済み所在地を含む位置に移動したことに基づいて、少なくとも前記所定の実在物体が前記センサデータにおいて特定されるまで、前記空間オーディオの前記所定の方向を、前記判定済み方向から、前記ユーザの前記現在の視野外の方向に修正することを少なくとも実行させる装置。 - 前記所定の方向の修正後、前記センサデータで前記実在物体が特定され、前記実在物体の現在の所在地が判定されると、前記装置に、前記空間オーディオの前記所定の方向を前記実在物体の判定された前記現在の所在地に対応するようにさらに修正することを実行させる、請求項1に記載の装置。
- 前記所定の方向の修正後、所定期間、前記センサデータにおいて前記実在物体が特定されないことで、前記実在物体の前記現在の所在地が所定期間不明であることに基づいて、前記装置に、
i)前記空間オーディオの音源が環境的オーディオとして知覚されるように、所定の方向を持たないように空間オーディオを提示することと、
ii)前記空間オーディオの提示を停止することと、
のうちの少なくとも一方を実行させる、請求項1または2に記載の装置。 - 前記センサの現在の視野と、前記ユーザの現在の視野が少なくとも部分的に重複するように、前記センサによる前記センサデータに対応する前記実在場面の前記限られた領域は、前記ユーザの前記現在の視野に基づく、請求項1から3のいずれか一項に記載の装置。
- 前記センサデータは、前記実在場面の少なくとも所定量を直近の所定期間内に網羅し、前記直近の所定時間内に前記実在物体が特定されないという判定により、前記実在物体が前記実在場面内で特定不能であることで、
i)前記空間オーディオが環境的オーディオとして知覚されるように、所定の方向を持たないように空間オーディオを提示することと、
ii)前記空間オーディオの提示を終了することと、
のうちの少なくとも一方を実行する、請求項1から4のいずれか一項に記載の装置。 - 少なくとも前記実在場面の前記センサデータにおいて前記所定の実在物体が自動特定されたことで、前記実在物体が前記実在場面に戻ったと判定されたことに基づいて、前記ユーザから見て、前記戻った実在物体への方向に対応する所定の方向を持つ前記空間オーディオを提示する、請求項5に記載の装置。
- 前記空間オーディオの前記所定の方向を、前記判定済み方向から、前記ユーザの前記現在の視野外の方向に修正することは、前記ユーザが、前記空間オーディオを前記ユーザの視界から若干外れた方向から発せられているように知覚するように、前記所定の方向を、前記ユーザの前記視野の縁から閾値角内の方向に修正することを含む、請求項1から6のいずれか一項に記載の装置。
- 前記空間オーディオを提示するスピーカを有し、前記ユーザが目の前に前記実在場面を見ることを可能にするように構成された拡張現実デバイスと、
前記空間オーディオを提示するスピーカを有し、前記ユーザに、カメラが撮影し、前記ユーザの前記現在の視野を定義する前記実在場面の仮想現実視界を提供するように構成された仮想現実デバイスと、
前記拡張現実デバイスまたは前記仮想現実デバイスと通信する装置と、
のうちの1つを備える、請求項1から7のいずれか一項に記載の装置。 - 前記空間オーディオは、知覚される前記空間オーディオの音源の位置を前記所定の方向に定めるように、頭部伝達関数フィルタリングと、3次元音響パンニング方式(vector-base-amplitude panning)のうちの一方を利用して提示される、請求項1から8のいずれか一項に記載の装置。
- 前記センサは、
カメラであって、前記センサデータは前記実在場面のカメラ映像を含み、前記センサ視野は前記カメラの視野を含み、前記所定の実在物体の特定は、前記装置と通信する実在物体特定モジュールによる前記カメラ映像内の前記所定の実在物体の自動視覚的特定を含むようにするカメラと、
オーディオセンサアレイであって、前記センサデータは前記実在場面のオーディオマップを含み、前記オーディオマップは前記実在場面からオーディオが到来する方向を含み、前記センサ視野は前記オーディオセンサアレイの視野を含み、前記オーディオセンサアレイの視野は前記オーディオセンサアレイにより前記実在場面においてオーディオを検出する領域を示し、前記所定の実在物体の自動特定は、前記前記装置と通信する実在物体特定モジュールによる前記オーディオマップ内の前記所定の実在物体の自動聴覚的特定を含むようにするオーディオセンサアレイと、
のうちの少なくとも1つを備える、請求項1から9のいずれか一項に記載の装置。 - 前記空間オーディオは、特定用データに関連付けられ、前記特定用データは、前記空間オーディオが関連付けられる前記実在物体を定義する、請求項1から10のいずれか一項に記載の装置。
- 実在場面における移動可能な、所定の実在物体に関連付けられ、前記実在場面の所定の方向から発せられると知覚されるような聴覚提示用のオーディオを含む空間オーディオに関して、
前記実在場面のセンサデータにおける前記所定の実在物体の特定に基づいて前記所定の実在物体の所在地が判定されて、それにより前記空間オーディオの前記所定の方向を、前記実在場面の前記所定の実在物体の前記所在地に対応するように定められるものとして、
前記センサデータは前記実在場面の限られた領域を網羅するセンサ視野を有する少なくとも1つのセンサにより、任意の時点で得られるもので、
前記センサデータにおいて前記所定の実在物体が特定できないことで、前記所定の実在物体の現在の所在地が不明であることに基づいて、
前記空間オーディオのユーザに、前記実在場面で前記実在物体が特定された判定済み所在地への方向を含む、判定済み方向を含む所定の方向から発せられるように知覚されるような聴覚的提示を行うことと、前記ユーザの現在の視野と、前記センサの現在の視野との一方または両方が前記判定済み所在地を含む位置に移動したことに基づいて、少なくとも前記所定の実在物体が前記センサデータにおいて特定されるまで、前記空間オーディオの前記所定の方向を、前記判定済み方向から、前記ユーザの前記現在の視野外の方向に修正することと、
を含む方法。 - 前記所定の方向の修正後、前記センサデータで前記実在物体が特定され、前記実在物体の現在の所在地が判定されると、前記空間オーディオの前記所定の方向を前記実在物体の判定された前記現在の所在地に対応するようにさらに修正することをさらに含む、請求項12に記載の方法。
- 前記所定の方向の修正後、前記センサデータにおいて前記実在物体が特定され、前記実在物体の現在の所在地が判定されたことに基づいて、前記空間オーディオが環境的オーディオとして知覚されるように、所定の方向を持たないように空間オーディオを提示する、請求項12に記載の方法。
- 装置の少なくとも1つのプロセッサに実行されると、前記装置に、請求項12から14のいずれかに記載の方法を遂行させるように構成されるコンピュータプログラムプログラムコードを備える、コンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP17168958.1A EP3399398B1 (en) | 2017-05-02 | 2017-05-02 | An apparatus and associated methods for presentation of spatial audio |
EP17168958.1 | 2017-05-02 | ||
PCT/FI2018/050309 WO2018202947A1 (en) | 2017-05-02 | 2018-04-27 | An apparatus and associated methods for presentation of spatial audio |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2020520576A true JP2020520576A (ja) | 2020-07-09 |
JP2020520576A5 JP2020520576A5 (ja) | 2021-04-01 |
JP6932206B2 JP6932206B2 (ja) | 2021-09-08 |
Family
ID=58692343
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019558784A Active JP6932206B2 (ja) | 2017-05-02 | 2018-04-27 | 空間オーディオの提示のための装置および関連する方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10887719B2 (ja) |
EP (1) | EP3399398B1 (ja) |
JP (1) | JP6932206B2 (ja) |
WO (1) | WO2018202947A1 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019217437A2 (en) * | 2018-05-07 | 2019-11-14 | Eolianvr, Incorporated | Device and content agnostic, interactive, collaborative, synchronized mixed reality system and method |
US20200296462A1 (en) * | 2019-03-11 | 2020-09-17 | Wci One, Llc | Media content presentation |
GB2582910A (en) * | 2019-04-02 | 2020-10-14 | Nokia Technologies Oy | Audio codec extension |
US11816757B1 (en) * | 2019-12-11 | 2023-11-14 | Meta Platforms Technologies, Llc | Device-side capture of data representative of an artificial reality environment |
CN113467603B (zh) * | 2020-03-31 | 2024-03-08 | 抖音视界有限公司 | 音频处理方法、装置、可读介质及电子设备 |
US11425523B2 (en) * | 2020-04-10 | 2022-08-23 | Facebook Technologies, Llc | Systems and methods for audio adjustment |
US11729573B2 (en) * | 2021-05-18 | 2023-08-15 | Snap Inc. | Audio enhanced augmented reality |
CN115442686B (zh) * | 2022-11-08 | 2023-02-03 | 深圳同创音频技术有限公司 | 一种基于大数据的多通道录音智能管理系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120268563A1 (en) * | 2011-04-22 | 2012-10-25 | Microsoft Corporation | Augmented auditory perception for the visually impaired |
US20130041648A1 (en) * | 2008-10-27 | 2013-02-14 | Sony Computer Entertainment Inc. | Sound localization for user in motion |
US20150025662A1 (en) * | 2013-06-28 | 2015-01-22 | Harman International Industries, Inc. | System and method for audio augmented reality |
EP2842529A1 (en) * | 2013-08-30 | 2015-03-04 | GN Store Nord A/S | Audio rendering system categorising geospatial objects |
JP2015531114A (ja) * | 2012-07-26 | 2015-10-29 | クアルコム,インコーポレイテッド | 拡張の継続性の維持 |
JP2016513410A (ja) * | 2013-02-15 | 2016-05-12 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | マルチチャネルオーディオデータのビデオ解析支援生成 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6961439B2 (en) | 2001-09-26 | 2005-11-01 | The United States Of America As Represented By The Secretary Of The Navy | Method and apparatus for producing spatialized audio signals |
JP4679661B1 (ja) * | 2009-12-15 | 2011-04-27 | 株式会社東芝 | 情報提示装置、情報提示方法及びプログラム |
US9367960B2 (en) | 2013-05-22 | 2016-06-14 | Microsoft Technology Licensing, Llc | Body-locked placement of augmented reality objects |
JP6019302B2 (ja) * | 2013-10-29 | 2016-11-02 | 兵神装備株式会社 | 吐出システム |
US9430038B2 (en) | 2014-05-01 | 2016-08-30 | Microsoft Technology Licensing, Llc | World-locked display quality feedback |
US9904055B2 (en) * | 2014-07-25 | 2018-02-27 | Microsoft Technology Licensing, Llc | Smart placement of virtual objects to stay in the field of view of a head mounted display |
EP3174005A1 (en) * | 2015-11-30 | 2017-05-31 | Nokia Technologies Oy | Apparatus and method for controlling audio mixing in virtual reality environments |
EP3184063B1 (en) * | 2015-12-21 | 2019-07-10 | Biedermann Technologies GmbH & Co. KG | Polyaxial bone anchoring device |
US11032471B2 (en) * | 2016-06-30 | 2021-06-08 | Nokia Technologies Oy | Method and apparatus for providing a visual indication of a point of interest outside of a user's view |
US20180095542A1 (en) * | 2016-09-30 | 2018-04-05 | Sony Interactive Entertainment Inc. | Object Holder for Virtual Reality Interaction |
-
2017
- 2017-05-02 EP EP17168958.1A patent/EP3399398B1/en active Active
-
2018
- 2018-04-27 WO PCT/FI2018/050309 patent/WO2018202947A1/en active Application Filing
- 2018-04-27 JP JP2019558784A patent/JP6932206B2/ja active Active
- 2018-04-27 US US16/605,310 patent/US10887719B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130041648A1 (en) * | 2008-10-27 | 2013-02-14 | Sony Computer Entertainment Inc. | Sound localization for user in motion |
US20120268563A1 (en) * | 2011-04-22 | 2012-10-25 | Microsoft Corporation | Augmented auditory perception for the visually impaired |
JP2015531114A (ja) * | 2012-07-26 | 2015-10-29 | クアルコム,インコーポレイテッド | 拡張の継続性の維持 |
JP2016513410A (ja) * | 2013-02-15 | 2016-05-12 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | マルチチャネルオーディオデータのビデオ解析支援生成 |
US20150025662A1 (en) * | 2013-06-28 | 2015-01-22 | Harman International Industries, Inc. | System and method for audio augmented reality |
EP2842529A1 (en) * | 2013-08-30 | 2015-03-04 | GN Store Nord A/S | Audio rendering system categorising geospatial objects |
Also Published As
Publication number | Publication date |
---|---|
EP3399398A1 (en) | 2018-11-07 |
JP6932206B2 (ja) | 2021-09-08 |
WO2018202947A1 (en) | 2018-11-08 |
US20200128348A1 (en) | 2020-04-23 |
EP3399398B1 (en) | 2022-04-13 |
US10887719B2 (en) | 2021-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6932206B2 (ja) | 空間オーディオの提示のための装置および関連する方法 | |
KR102419065B1 (ko) | 혼합 현실 디바이스에서의 가상 및 실제 객체 레코딩 | |
US9906885B2 (en) | Methods and systems for inserting virtual sounds into an environment | |
JP2020520576A5 (ja) | ||
EP3343349B1 (en) | An apparatus and associated methods in the field of virtual reality | |
US10798518B2 (en) | Apparatus and associated methods | |
US20190180509A1 (en) | Apparatus and associated methods for presentation of first and second virtual-or-augmented reality content | |
US20190139312A1 (en) | An apparatus and associated methods | |
US10972800B2 (en) | Apparatus and associated methods | |
US20190149886A1 (en) | An apparatus and associated methods | |
US11069137B2 (en) | Rendering captions for media content | |
US20220225049A1 (en) | An apparatus and associated methods for capture of spatial audio | |
JP7037654B2 (ja) | キャプチャされた空間オーディオコンテンツの提示用の装置および関連する方法 | |
JP2021508193A5 (ja) | ||
KR20210056414A (ko) | 혼합 현실 환경들에서 오디오-가능 접속된 디바이스들을 제어하기 위한 시스템 | |
US20240056761A1 (en) | Three-dimensional (3d) sound rendering with multi-channel audio based on mono audio input | |
WO2023248832A1 (ja) | 遠隔視認システム、現地撮像システム | |
US20200302761A1 (en) | Indicator modes | |
Zotkin | Algorithms for acquisition and rendering of sounds in perceptual user interfaces |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191114 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201207 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210121 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210217 |
|
A524 | Written submission of copy of amendment under article 19 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A524 Effective date: 20210217 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210811 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210817 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6932206 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |