JP2015510629A - 音分析および幾何解析を用いた拡張現実 - Google Patents
音分析および幾何解析を用いた拡張現実 Download PDFInfo
- Publication number
- JP2015510629A JP2015510629A JP2014552191A JP2014552191A JP2015510629A JP 2015510629 A JP2015510629 A JP 2015510629A JP 2014552191 A JP2014552191 A JP 2014552191A JP 2014552191 A JP2014552191 A JP 2014552191A JP 2015510629 A JP2015510629 A JP 2015510629A
- Authority
- JP
- Japan
- Prior art keywords
- sound
- geometric information
- target
- response
- virtual object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Stereophonic System (AREA)
- Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
Abstract
Description
本出願は、その内容全体が参照により本明細書に組み込まれる、2012年8月15日に出願された米国出願第13/585,927号、および2012年1月12日に出願された米国仮特許出願第61/585,945号に基づくものであり、その優先権の利益を主張する。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[C1]
モバイルデバイスの拡張現実(AR)アプリケーションにおいて外部音に応答するための方法であって、前記方法は、
ターゲットを検出することと、
前記ARアプリケーションにおいて仮想オブジェクトを起動することと、
前記モバイルデバイスの少なくとも1つの音センサーが、音源から前記外部音を受信することと、
前記音源と前記ターゲットとの間の第1の幾何学的情報を判断することと、
前記第1の幾何学的情報に基づいて、前記ARアプリケーションにおいて前記仮想オブジェクトが実行すべき少なくとも1つの応答を生成することと
を備える、方法。
[C2]
前記第1の幾何学的情報を判断することが、
前記モバイルデバイスと前記ターゲットとの間の第2の幾何学的情報を判断することと、
前記モバイルデバイスと前記音源との間の第3の幾何学的情報を判断することと、
前記第2および第3の幾何学的情報に基づいて前記第1の幾何学的情報を計算することと
を含む、C1に記載の方法。
[C3]
前記第2の幾何学的情報が、前記モバイルデバイスと前記ターゲットとの間の距離と、前記ターゲットと前記モバイルデバイスの平面に直交する軸との間の角度とのうちの少なくとも1つを含む、C2に記載の方法。
[C4]
前記第3の幾何学的情報が、前記モバイルデバイスと前記音源との間の距離と、前記音源と前記モバイルデバイスの平面に直交する軸との間の角度とのうちの少なくとも1つを含む、C2に記載の方法。
[C5]
前記第1の幾何学的情報が、前記ターゲットと前記音源との間の距離と、前記モバイルデバイスと前記音源とに対して形成された前記ターゲットの角度とのうちの少なくとも1つを含む、C2に記載の方法。
[C6]
前記第3の幾何学的情報が、カメラ姿勢推定に基づいて判断される、C2に記載の方法。
[C7]
前記少なくとも1つの応答を生成することが、
前記受信された外部音から少なくとも1つの音特徴を抽出することと、
前記抽出された音特徴を少なくとも1つの所定の音クラスとして識別することと、ここにおいて、前記少なくとも1つの所定の音クラスが前記仮想オブジェクトについての前記少なくとも1つの応答に関連する、
前記識別された音クラスに基づいて前記仮想オブジェクトについての前記少なくとも1つの応答を生成することと
を含む、C1に記載の方法。
[C8]
前記外部音を受信することは、
前記外部音が2つ以上の音源から受信されたかどうかを判断することと、
前記外部音が前記2つ以上の音源から受信された場合、前記受信された外部音を複数の音に分離することと、
前記複数の分離された音に関連する追加の音源を識別することと、
前記識別された音源と前記ターゲットとの間の第4の幾何学的情報を判断することと
を含む、C2に記載の方法。
[C9]
前記少なくとも1つの応答を生成することは、
前記仮想オブジェクトについて、前記識別された音源の各々に関連する前記少なくとも1つの応答を判断することと、ここにおいて、前記少なくとも1つの応答は、前記仮想オブジェクトが実行すべきアクションまたはイナクションを含む、
前記仮想オブジェクトについての前記少なくとも1つの応答の順序を判断することと、
前記判断された順序に基づいて前記仮想オブジェクトについての前記少なくとも1つの応答を生成することと
を含む、C8に記載の方法。
[C10]
前記仮想オブジェクトが、前記ARアプリケーションにおける、キャラクタと、クラウドと、バックグラウンドとのうちの少なくとも1つを含む、C1に記載の方法。
[C11]
第1の幾何学的情報を前記判断することが、前記音源と前記ターゲットとの間の距離および方向を判断することを含む、C1に記載の方法。
[C12]
第1の幾何学的情報を前記判断することが、前記モバイルデバイス、前記ターゲットおよび前記音源のロケーションを判断することを含む、C1に記載の方法。
[C13]
前記外部音を受信することは、
前記外部音が2つ以上の音源から受信されたかどうかを判断することと、
前記外部音が前記2つ以上の音源から受信された場合、前記受信された外部音を複数の音に分離することと、
2つ以上の音源の各々と前記ターゲットとの間の第4の幾何学的情報を判断することと、
前記分離された音の各々を少なくとも1つの所定の音クラスとして識別することと、ここにおいて、前記少なくとも1つの所定の音クラスが前記仮想オブジェクトについての前記少なくとも1つの応答に関連する、
前記識別された音クラスと前記第4の幾何学的情報とのうちの少なくとも1つに基づいて、前記仮想オブジェクトについての前記少なくとも1つの応答を生成することと
を含む、C1に記載の方法。
[C14]
拡張現実(AR)アプリケーションにおいて外部音に応答するためのデバイスであって、前記デバイスが、
画像センサーと少なくとも1つの音センサーとを含み、ターゲットを含む画像と、1つの音源からの前記外部音とを受信するように構成されたセンサーと、
前記画像中の前記ターゲットを検出するように構成されたターゲットオブジェクト検出器と、
前記検出されたターゲットに応答して、前記ARアプリケーションにおいて仮想オブジェクトを起動するように構成されたアプリケーション起動ユニットと、
前記1つの音源と前記ターゲットとの間の第1の幾何学的情報を判断するように構成された幾何学的情報計算ユニットと、
前記第1の幾何学的情報に基づいて、前記ARアプリケーションにおいて前記仮想オブジェクトが実行すべき少なくとも1つの応答を生成するように構成されたAR応答生成器と
を含む制御ユニットと
を備える、デバイス。
[C15]
前記幾何学的情報計算ユニットが、
前記デバイスと前記ターゲットとの間の第2の幾何学的情報を判断することと、
前記デバイスと前記1つの音源との間の第3の幾何学的情報を判断することと、
前記第2および第3の幾何学的情報に基づいて前記第1の幾何学的情報を計算することと
を行うようにさらに構成された、C14に記載のデバイス。
[C16]
前記第2の幾何学的情報が、前記デバイスと前記ターゲットとの間の距離と、前記ターゲットと前記デバイスの平面に直交する軸との間の角度とのうちの少なくとも1つを含む、C15に記載のデバイス。
[C17]
前記第3の幾何学的情報が、前記デバイスと前記1つの音源との間の距離と、前記1つの音源と前記デバイスの平面に直交する軸との間の角度とのうちの少なくとも1つを含む、C15に記載のデバイス。
[C18]
前記第1の幾何学的情報が、前記ターゲットと前記1つの音源との間の距離と、前記デバイスと前記1つの音源とに対して形成された前記ターゲットの角度とのうちの少なくとも1つを含む、C15に記載のデバイス。
[C19]
前記第3の幾何学的情報が、カメラ姿勢推定に基づいて判断される、C15に記載のデバイス。
[C20]
前記AR応答生成器が、
前記受信された外部音から少なくとも1つの音特徴を抽出することと、
前記抽出された音特徴を少なくとも1つの所定の音クラスとして識別することと、前記少なくとも1つの所定の音クラスが前記仮想オブジェクトについての前記少なくとも1つの応答に関連する、
前記識別された音クラスに基づいて前記仮想オブジェクトについての前記少なくとも1つの応答を生成することと
を行うようにさらに構成された、C14に記載のデバイス。
[C21]
前記外部音が2つ以上の音源から受信されたかどうかを判断することと、前記外部音が前記2つ以上の音源から受信された場合、前記受信された外部音を複数の音に分離することと、前記複数の分離された音に関連する追加の音源を識別することと、前記識別された音源と前記ターゲットとの間の第4の幾何学的情報を判断することとを行うように構成された音分析器
をさらに備える、C15に記載のデバイス。
[C22]
前記AR応答生成器が、
前記仮想オブジェクトについて、前記識別された音源の各々に関連する前記少なくとも1つの応答を判断することと、ここにおいて、前記少なくとも1つの応答は、前記仮想オブジェクトが実行すべきアクションまたはイナクションを含む、
前記仮想オブジェクトについての前記少なくとも1つの応答の順序を判断することと、
前記判断された順序に基づいて前記仮想オブジェクトについての前記少なくとも1つの応答を生成することと
を行うようにさらに構成された、C21に記載のデバイス。
[C23]
前記仮想オブジェクトが、前記ARアプリケーションにおける、キャラクタと、クラウドと、バックグラウンドとのうちの少なくとも1つを含む、C14に記載のデバイス。
[C24]
前記幾何学的情報計算ユニットが、前記1つの音源と前記ターゲットとの間の距離および方向を判断するようにさらに構成された、C14に記載のデバイス。
[C25]
前記幾何学的情報計算ユニットが、前記デバイス、前記ターゲットおよび前記1つの音源のロケーションを判断するようにさらに構成された、C14に記載のデバイス。
[C26]
前記外部音が2つ以上の音源から受信されたかどうかを判断することと、前記外部音が前記2つ以上の音源から受信された場合、前記受信された外部音を複数の音に分離することと、2つ以上の音源の各々と前記ターゲットとの間の第4の幾何学的情報を判断することと、前記分離された音の各々を少なくとも1つの所定の音クラスとして識別することと、前記識別された音クラスと前記第4の幾何学的情報とのうちの少なくとも1つに基づいて、前記仮想オブジェクトについての前記少なくとも1つの応答を生成することとを行うように構成された音分析器
をさらに備え、
前記少なくとも1つの所定の音クラスが前記仮想オブジェクトについての前記少なくとも1つの応答に関連する、C14に記載のデバイス。
[C27]
拡張現実(AR)アプリケーションにおいてモバイルデバイスが外部音に応答するための命令を備える非一時的コンピュータ可読記憶媒体であって、前記命令は、
ターゲットを検出する動作と、
前記ARアプリケーションにおいて仮想オブジェクトを起動する動作と、
前記モバイルデバイスの少なくとも1つの音センサーが、1つの音源から前記外部音を受信する動作と、
前記1つの音源と前記ターゲットとの間の第1の幾何学的情報を判断する動作と、
前記第1の幾何学的情報に基づいて、前記ARアプリケーションにおいて前記仮想オブジェクトが実行すべき少なくとも1つの応答を生成する動作と
をプロセッサに実行させる、非一時的コンピュータ可読記憶媒体。
[C28]
前記第1の幾何学的情報を判断することが、
前記モバイルデバイスと前記ターゲットとの間の第2の幾何学的情報を判断することと、
前記モバイルデバイスと前記1つの音源との間の第3の幾何学的情報を判断することと、
前記第2および第3の幾何学的情報に基づいて前記第1の幾何学的情報を計算することと
を含む、C27に記載の記憶媒体。
[C29]
前記外部音を受信することは、
前記外部音が2つ以上の音源から受信されたかどうかを判断することと、
前記外部音が前記2つ以上の音源から受信された場合、前記受信された外部音を複数の音に分離することと、
前記複数の分離された音に関連する追加の音源を識別することと、
前記識別された追加の音源と前記ターゲットとの間の第4の幾何学的情報を判断することと
を含む、C28に記載の記憶媒体。
[C30]
前記少なくとも1つの応答を生成することは、
前記仮想オブジェクトについて、前記識別された音源の各々に関連する前記少なくとも1つの応答を判断することと、ここにおいて、前記少なくとも1つの応答は、前記仮想オブジェクトが実行すべきアクションまたはイナクションを含む、
前記仮想オブジェクトについての前記少なくとも1つの応答の順序を判断することと、
前記判断された順序に基づいて前記仮想オブジェクトについての前記少なくとも1つの応答を生成することと
を含む、C29に記載の記憶媒体。
[C31]
拡張現実(AR)アプリケーションにおいて外部音に応答するためのデバイスであって、前記デバイスは、
ターゲットを検出するための手段と、
前記ARアプリケーションにおいて仮想オブジェクトを起動するための手段と、
1つの音源から前記外部音を受信するための手段と、
前記1つの音源と前記ターゲットとの間の第1の幾何学的情報を判断するための手段と、
前記第1の幾何学的情報に基づいて、前記ARアプリケーションにおいて前記仮想オブジェクトが実行すべき少なくとも1つの応答を生成するための手段と
を備える、デバイス。
[C32]
前記第1の幾何学的情報を判断するための前記手段が、
前記デバイスと前記ターゲットとの間の第2の幾何学的情報を判断することと、
前記デバイスと前記1つの音源との間の第3の幾何学的情報を判断することと、
前記第2および第3の幾何学的情報に基づいて前記第1の幾何学的情報を計算することと
を行うように構成された、C31に記載のデバイス。
[C33]
前記第2の幾何学的情報が、前記デバイスと前記ターゲットとの間の距離と、前記ターゲットと前記デバイスの平面に直交する軸との間の角度とのうちの少なくとも1つを含み、
前記第3の幾何学的情報が、前記デバイスと前記1つの音源との間の距離と、前記1つの音源と前記デバイスの前記平面に直交する前記軸との間の角度とのうちの少なくとも1つを含み、
前記第1の幾何学的情報が、前記ターゲットと前記1つの音源との間の距離と、前記デバイスと前記1つの音源とに対して形成された前記ターゲットの角度とのうちの少なくとも1つを含む、C32に記載のデバイス。
[C34]
前記第3の幾何学的情報が、カメラ姿勢推定に基づいて判断される、C32に記載のデバイス。
[C35]
前記少なくとも1つの応答を生成するための前記手段が、
前記受信された外部音から少なくとも1つの音特徴を抽出することと、
前記抽出された音特徴を少なくとも1つの所定の音クラスとして識別することと、ここにおいて、前記少なくとも1つの所定の音クラスが前記仮想オブジェクトについての前記少なくとも1つの応答に関連する、
前記識別された音クラスに基づいて前記仮想オブジェクトについての前記少なくとも1つの応答を生成することと
を行うように構成された、C31に記載のデバイス。
[C36]
前記外部音を受信するための前記手段は、
前記外部音が2つ以上の音源から受信されたかどうかを判断することと、
前記外部音が前記2つ以上の音源から受信された場合、前記受信された外部音を複数の音に分離することと、
前記複数の分離された音に関連する追加の音源を識別することと、
前記識別された追加の音源と前記ターゲットとの間の第4の幾何学的情報を判断することと
を行うように構成された、C32に記載のデバイス。
[C37]
前記少なくとも1つの応答を生成するための前記手段は、
前記仮想オブジェクトについて、前記識別された音源の各々に関連する前記少なくとも1つの応答を判断することと、ここにおいて、前記少なくとも1つの応答は、前記仮想オブジェクトが実行すべきアクションまたはイナクションを含む、
前記仮想オブジェクトについての前記少なくとも1つの応答の順序を判断することと、
前記判断された順序に基づいて前記仮想オブジェクトについての前記少なくとも1つの応答を生成することと
を行うように構成された、C36に記載のデバイス。
[C38]
前記外部音を受信するための前記手段は、
前記外部音が2つ以上の音源から受信されたかどうかを判断することと、
前記外部音が前記2つ以上の音源から受信された場合、前記受信された外部音を複数の音に分離することと、
2つ以上の音源の各々と前記ターゲットとの間の第4の幾何学的情報を判断することと、
前記分離された音の各々を少なくとも1つの所定の音クラスとして識別することと、ここにおいて、前記少なくとも1つの所定の音クラスが前記仮想オブジェクトについての前記少なくとも1つの応答に関連する、
前記識別された音クラスと前記第4の幾何学的情報とのうちの少なくとも1つに基づいて、前記仮想オブジェクトについての前記少なくとも1つの応答を生成することと
を行うように構成された、C31に記載のデバイス。
Claims (38)
- モバイルデバイスの拡張現実(AR)アプリケーションにおいて外部音に応答するための方法であって、前記方法は、
ターゲットを検出することと、
前記ARアプリケーションにおいて仮想オブジェクトを起動することと、
前記モバイルデバイスの少なくとも1つの音センサーが、音源から前記外部音を受信することと、
前記音源と前記ターゲットとの間の第1の幾何学的情報を判断することと、
前記第1の幾何学的情報に基づいて、前記ARアプリケーションにおいて前記仮想オブジェクトが実行すべき少なくとも1つの応答を生成することと
を備える、方法。 - 前記第1の幾何学的情報を判断することが、
前記モバイルデバイスと前記ターゲットとの間の第2の幾何学的情報を判断することと、
前記モバイルデバイスと前記音源との間の第3の幾何学的情報を判断することと、
前記第2および第3の幾何学的情報に基づいて前記第1の幾何学的情報を計算することと
を含む、請求項1に記載の方法。 - 前記第2の幾何学的情報が、前記モバイルデバイスと前記ターゲットとの間の距離と、前記ターゲットと前記モバイルデバイスの平面に直交する軸との間の角度とのうちの少なくとも1つを含む、請求項2に記載の方法。
- 前記第3の幾何学的情報が、前記モバイルデバイスと前記音源との間の距離と、前記音源と前記モバイルデバイスの平面に直交する軸との間の角度とのうちの少なくとも1つを含む、請求項2に記載の方法。
- 前記第1の幾何学的情報が、前記ターゲットと前記音源との間の距離と、前記モバイルデバイスと前記音源とに対して形成された前記ターゲットの角度とのうちの少なくとも1つを含む、請求項2に記載の方法。
- 前記第3の幾何学的情報が、カメラ姿勢推定に基づいて判断される、請求項2に記載の方法。
- 前記少なくとも1つの応答を生成することが、
前記受信された外部音から少なくとも1つの音特徴を抽出することと、
前記抽出された音特徴を少なくとも1つの所定の音クラスとして識別することと、ここにおいて、前記少なくとも1つの所定の音クラスが前記仮想オブジェクトについての前記少なくとも1つの応答に関連する、
前記識別された音クラスに基づいて前記仮想オブジェクトについての前記少なくとも1つの応答を生成することと
を含む、請求項1に記載の方法。 - 前記外部音を受信することは、
前記外部音が2つ以上の音源から受信されたかどうかを判断することと、
前記外部音が前記2つ以上の音源から受信された場合、前記受信された外部音を複数の音に分離することと、
前記複数の分離された音に関連する追加の音源を識別することと、
前記識別された音源と前記ターゲットとの間の第4の幾何学的情報を判断することと
を含む、請求項2に記載の方法。 - 前記少なくとも1つの応答を生成することは、
前記仮想オブジェクトについて、前記識別された音源の各々に関連する前記少なくとも1つの応答を判断することと、ここにおいて、前記少なくとも1つの応答は、前記仮想オブジェクトが実行すべきアクションまたはイナクションを含む、
前記仮想オブジェクトについての前記少なくとも1つの応答の順序を判断することと、
前記判断された順序に基づいて前記仮想オブジェクトについての前記少なくとも1つの応答を生成することと
を含む、請求項8に記載の方法。 - 前記仮想オブジェクトが、前記ARアプリケーションにおける、キャラクタと、クラウドと、バックグラウンドとのうちの少なくとも1つを含む、請求項1に記載の方法。
- 第1の幾何学的情報を前記判断することが、前記音源と前記ターゲットとの間の距離および方向を判断することを含む、請求項1に記載の方法。
- 第1の幾何学的情報を前記判断することが、前記モバイルデバイス、前記ターゲットおよび前記音源のロケーションを判断することを含む、請求項1に記載の方法。
- 前記外部音を受信することは、
前記外部音が2つ以上の音源から受信されたかどうかを判断することと、
前記外部音が前記2つ以上の音源から受信された場合、前記受信された外部音を複数の音に分離することと、
2つ以上の音源の各々と前記ターゲットとの間の第4の幾何学的情報を判断することと、
前記分離された音の各々を少なくとも1つの所定の音クラスとして識別することと、ここにおいて、前記少なくとも1つの所定の音クラスが前記仮想オブジェクトについての前記少なくとも1つの応答に関連する、
前記識別された音クラスと前記第4の幾何学的情報とのうちの少なくとも1つに基づいて、前記仮想オブジェクトについての前記少なくとも1つの応答を生成することと
を含む、請求項1に記載の方法。 - 拡張現実(AR)アプリケーションにおいて外部音に応答するためのデバイスであって、前記デバイスが、
画像センサーと少なくとも1つの音センサーとを含み、ターゲットを含む画像と、1つの音源からの前記外部音とを受信するように構成されたセンサーと、
前記画像中の前記ターゲットを検出するように構成されたターゲットオブジェクト検出器と、
前記検出されたターゲットに応答して、前記ARアプリケーションにおいて仮想オブジェクトを起動するように構成されたアプリケーション起動ユニットと、
前記1つの音源と前記ターゲットとの間の第1の幾何学的情報を判断するように構成された幾何学的情報計算ユニットと、
前記第1の幾何学的情報に基づいて、前記ARアプリケーションにおいて前記仮想オブジェクトが実行すべき少なくとも1つの応答を生成するように構成されたAR応答生成器と
を含む制御ユニットと
を備える、デバイス。 - 前記幾何学的情報計算ユニットが、
前記デバイスと前記ターゲットとの間の第2の幾何学的情報を判断することと、
前記デバイスと前記1つの音源との間の第3の幾何学的情報を判断することと、
前記第2および第3の幾何学的情報に基づいて前記第1の幾何学的情報を計算することと
を行うようにさらに構成された、請求項14に記載のデバイス。 - 前記第2の幾何学的情報が、前記デバイスと前記ターゲットとの間の距離と、前記ターゲットと前記デバイスの平面に直交する軸との間の角度とのうちの少なくとも1つを含む、請求項15に記載のデバイス。
- 前記第3の幾何学的情報が、前記デバイスと前記1つの音源との間の距離と、前記1つの音源と前記デバイスの平面に直交する軸との間の角度とのうちの少なくとも1つを含む、請求項15に記載のデバイス。
- 前記第1の幾何学的情報が、前記ターゲットと前記1つの音源との間の距離と、前記デバイスと前記1つの音源とに対して形成された前記ターゲットの角度とのうちの少なくとも1つを含む、請求項15に記載のデバイス。
- 前記第3の幾何学的情報が、カメラ姿勢推定に基づいて判断される、請求項15に記載のデバイス。
- 前記AR応答生成器が、
前記受信された外部音から少なくとも1つの音特徴を抽出することと、
前記抽出された音特徴を少なくとも1つの所定の音クラスとして識別することと、前記少なくとも1つの所定の音クラスが前記仮想オブジェクトについての前記少なくとも1つの応答に関連する、
前記識別された音クラスに基づいて前記仮想オブジェクトについての前記少なくとも1つの応答を生成することと
を行うようにさらに構成された、請求項14に記載のデバイス。 - 前記外部音が2つ以上の音源から受信されたかどうかを判断することと、前記外部音が前記2つ以上の音源から受信された場合、前記受信された外部音を複数の音に分離することと、前記複数の分離された音に関連する追加の音源を識別することと、前記識別された音源と前記ターゲットとの間の第4の幾何学的情報を判断することとを行うように構成された音分析器
をさらに備える、請求項15に記載のデバイス。 - 前記AR応答生成器が、
前記仮想オブジェクトについて、前記識別された音源の各々に関連する前記少なくとも1つの応答を判断することと、ここにおいて、前記少なくとも1つの応答は、前記仮想オブジェクトが実行すべきアクションまたはイナクションを含む、
前記仮想オブジェクトについての前記少なくとも1つの応答の順序を判断することと、
前記判断された順序に基づいて前記仮想オブジェクトについての前記少なくとも1つの応答を生成することと
を行うようにさらに構成された、請求項21に記載のデバイス。 - 前記仮想オブジェクトが、前記ARアプリケーションにおける、キャラクタと、クラウドと、バックグラウンドとのうちの少なくとも1つを含む、請求項14に記載のデバイス。
- 前記幾何学的情報計算ユニットが、前記1つの音源と前記ターゲットとの間の距離および方向を判断するようにさらに構成された、請求項14に記載のデバイス。
- 前記幾何学的情報計算ユニットが、前記デバイス、前記ターゲットおよび前記1つの音源のロケーションを判断するようにさらに構成された、請求項14に記載のデバイス。
- 前記外部音が2つ以上の音源から受信されたかどうかを判断することと、前記外部音が前記2つ以上の音源から受信された場合、前記受信された外部音を複数の音に分離することと、2つ以上の音源の各々と前記ターゲットとの間の第4の幾何学的情報を判断することと、前記分離された音の各々を少なくとも1つの所定の音クラスとして識別することと、前記識別された音クラスと前記第4の幾何学的情報とのうちの少なくとも1つに基づいて、前記仮想オブジェクトについての前記少なくとも1つの応答を生成することとを行うように構成された音分析器
をさらに備え、
前記少なくとも1つの所定の音クラスが前記仮想オブジェクトについての前記少なくとも1つの応答に関連する、請求項14に記載のデバイス。 - 拡張現実(AR)アプリケーションにおいてモバイルデバイスが外部音に応答するための命令を備える非一時的コンピュータ可読記憶媒体であって、前記命令は、
ターゲットを検出する動作と、
前記ARアプリケーションにおいて仮想オブジェクトを起動する動作と、
前記モバイルデバイスの少なくとも1つの音センサーが、1つの音源から前記外部音を受信する動作と、
前記1つの音源と前記ターゲットとの間の第1の幾何学的情報を判断する動作と、
前記第1の幾何学的情報に基づいて、前記ARアプリケーションにおいて前記仮想オブジェクトが実行すべき少なくとも1つの応答を生成する動作と
をプロセッサに実行させる、非一時的コンピュータ可読記憶媒体。 - 前記第1の幾何学的情報を判断することが、
前記モバイルデバイスと前記ターゲットとの間の第2の幾何学的情報を判断することと、
前記モバイルデバイスと前記1つの音源との間の第3の幾何学的情報を判断することと、
前記第2および第3の幾何学的情報に基づいて前記第1の幾何学的情報を計算することと
を含む、請求項27に記載の記憶媒体。 - 前記外部音を受信することは、
前記外部音が2つ以上の音源から受信されたかどうかを判断することと、
前記外部音が前記2つ以上の音源から受信された場合、前記受信された外部音を複数の音に分離することと、
前記複数の分離された音に関連する追加の音源を識別することと、
前記識別された追加の音源と前記ターゲットとの間の第4の幾何学的情報を判断することと
を含む、請求項28に記載の記憶媒体。 - 前記少なくとも1つの応答を生成することは、
前記仮想オブジェクトについて、前記識別された音源の各々に関連する前記少なくとも1つの応答を判断することと、ここにおいて、前記少なくとも1つの応答は、前記仮想オブジェクトが実行すべきアクションまたはイナクションを含む、
前記仮想オブジェクトについての前記少なくとも1つの応答の順序を判断することと、
前記判断された順序に基づいて前記仮想オブジェクトについての前記少なくとも1つの応答を生成することと
を含む、請求項29に記載の記憶媒体。 - 拡張現実(AR)アプリケーションにおいて外部音に応答するためのデバイスであって、前記デバイスは、
ターゲットを検出するための手段と、
前記ARアプリケーションにおいて仮想オブジェクトを起動するための手段と、
1つの音源から前記外部音を受信するための手段と、
前記1つの音源と前記ターゲットとの間の第1の幾何学的情報を判断するための手段と、
前記第1の幾何学的情報に基づいて、前記ARアプリケーションにおいて前記仮想オブジェクトが実行すべき少なくとも1つの応答を生成するための手段と
を備える、デバイス。 - 前記第1の幾何学的情報を判断するための前記手段が、
前記デバイスと前記ターゲットとの間の第2の幾何学的情報を判断することと、
前記デバイスと前記1つの音源との間の第3の幾何学的情報を判断することと、
前記第2および第3の幾何学的情報に基づいて前記第1の幾何学的情報を計算することと
を行うように構成された、請求項31に記載のデバイス。 - 前記第2の幾何学的情報が、前記デバイスと前記ターゲットとの間の距離と、前記ターゲットと前記デバイスの平面に直交する軸との間の角度とのうちの少なくとも1つを含み、
前記第3の幾何学的情報が、前記デバイスと前記1つの音源との間の距離と、前記1つの音源と前記デバイスの前記平面に直交する前記軸との間の角度とのうちの少なくとも1つを含み、
前記第1の幾何学的情報が、前記ターゲットと前記1つの音源との間の距離と、前記デバイスと前記1つの音源とに対して形成された前記ターゲットの角度とのうちの少なくとも1つを含む、請求項32に記載のデバイス。 - 前記第3の幾何学的情報が、カメラ姿勢推定に基づいて判断される、請求項32に記載のデバイス。
- 前記少なくとも1つの応答を生成するための前記手段が、
前記受信された外部音から少なくとも1つの音特徴を抽出することと、
前記抽出された音特徴を少なくとも1つの所定の音クラスとして識別することと、ここにおいて、前記少なくとも1つの所定の音クラスが前記仮想オブジェクトについての前記少なくとも1つの応答に関連する、
前記識別された音クラスに基づいて前記仮想オブジェクトについての前記少なくとも1つの応答を生成することと
を行うように構成された、請求項31に記載のデバイス。 - 前記外部音を受信するための前記手段は、
前記外部音が2つ以上の音源から受信されたかどうかを判断することと、
前記外部音が前記2つ以上の音源から受信された場合、前記受信された外部音を複数の音に分離することと、
前記複数の分離された音に関連する追加の音源を識別することと、
前記識別された追加の音源と前記ターゲットとの間の第4の幾何学的情報を判断することと
を行うように構成された、請求項32に記載のデバイス。 - 前記少なくとも1つの応答を生成するための前記手段は、
前記仮想オブジェクトについて、前記識別された音源の各々に関連する前記少なくとも1つの応答を判断することと、ここにおいて、前記少なくとも1つの応答は、前記仮想オブジェクトが実行すべきアクションまたはイナクションを含む、
前記仮想オブジェクトについての前記少なくとも1つの応答の順序を判断することと、
前記判断された順序に基づいて前記仮想オブジェクトについての前記少なくとも1つの応答を生成することと
を行うように構成された、請求項36に記載のデバイス。 - 前記外部音を受信するための前記手段は、
前記外部音が2つ以上の音源から受信されたかどうかを判断することと、
前記外部音が前記2つ以上の音源から受信された場合、前記受信された外部音を複数の音に分離することと、
2つ以上の音源の各々と前記ターゲットとの間の第4の幾何学的情報を判断することと、
前記分離された音の各々を少なくとも1つの所定の音クラスとして識別することと、ここにおいて、前記少なくとも1つの所定の音クラスが前記仮想オブジェクトについての前記少なくとも1つの応答に関連する、
前記識別された音クラスと前記第4の幾何学的情報とのうちの少なくとも1つに基づいて、前記仮想オブジェクトについての前記少なくとも1つの応答を生成することと
を行うように構成された、請求項31に記載のデバイス。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201261585945P | 2012-01-12 | 2012-01-12 | |
US61/585,945 | 2012-01-12 | ||
US13/585,927 US9563265B2 (en) | 2012-01-12 | 2012-08-15 | Augmented reality with sound and geometric analysis |
US13/585,927 | 2012-08-15 | ||
PCT/US2012/066194 WO2013106133A1 (en) | 2012-01-12 | 2012-11-21 | Augmented reality with sound and geometric analysis |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2015510629A true JP2015510629A (ja) | 2015-04-09 |
JP2015510629A5 JP2015510629A5 (ja) | 2015-12-17 |
JP5996669B2 JP5996669B2 (ja) | 2016-09-21 |
Family
ID=48779976
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014552191A Active JP5996669B2 (ja) | 2012-01-12 | 2012-11-21 | 音分析および幾何解析を用いた拡張現実 |
Country Status (7)
Country | Link |
---|---|
US (1) | US9563265B2 (ja) |
EP (1) | EP2802962A1 (ja) |
JP (1) | JP5996669B2 (ja) |
KR (1) | KR102078427B1 (ja) |
CN (1) | CN104054039B (ja) |
IN (1) | IN2014CN04458A (ja) |
WO (1) | WO2013106133A1 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017221492A1 (ja) * | 2016-06-20 | 2017-12-28 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP2018160248A (ja) * | 2018-05-01 | 2018-10-11 | トヨタ自動車株式会社 | 応答生成方法、応答生成装置及び応答生成プログラム |
US10642575B2 (en) | 2014-12-02 | 2020-05-05 | Sony Corporation | Information processing device and method of information processing for notification of user speech received at speech recognizable volume levels |
WO2021095330A1 (ja) * | 2019-11-12 | 2021-05-20 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
Families Citing this family (45)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9206446B2 (en) | 2006-05-01 | 2015-12-08 | Board Of Trustees Of Michigan State University | Extraction of solubles from plant biomass for use as microbial growth stimulant and methods related thereto |
US20130249811A1 (en) * | 2012-03-23 | 2013-09-26 | Microsoft Corporation | Controlling a device with visible light |
US9367870B2 (en) * | 2012-10-05 | 2016-06-14 | Sap Se | Determining networked mobile device position and orientation for augmented-reality window shopping |
CN104936665B (zh) | 2012-10-22 | 2017-12-26 | 开放信息公司 | 合作增强现实 |
DK2926224T3 (da) * | 2012-11-29 | 2021-11-15 | Imran Haddish | Instruktionssystem til virtuel og augmented reality |
US10262462B2 (en) | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
JP5884811B2 (ja) * | 2013-11-18 | 2016-03-15 | コニカミノルタ株式会社 | Ar表示装置、ar表示制御装置、印刷条件設定システム、印刷システム、印刷設定表示方法およびプログラム |
US20150187143A1 (en) * | 2013-12-26 | 2015-07-02 | Shadi Mere | Rendering a virtual representation of a hand |
JP2015166890A (ja) * | 2014-03-03 | 2015-09-24 | ソニー株式会社 | 情報処理装置、情報処理システム、情報処理方法及びプログラム |
US10930038B2 (en) | 2014-06-10 | 2021-02-23 | Lab Of Misfits Ar, Inc. | Dynamic location based digital element |
US10026226B1 (en) * | 2014-06-10 | 2018-07-17 | Ripple Inc | Rendering an augmented reality object |
US12008697B2 (en) | 2014-06-10 | 2024-06-11 | Ripple, Inc. Of Delaware | Dynamic location based digital element |
US9875080B2 (en) * | 2014-07-17 | 2018-01-23 | Nokia Technologies Oy | Method and apparatus for an interactive user interface |
JP6344125B2 (ja) * | 2014-07-31 | 2018-06-20 | セイコーエプソン株式会社 | 表示装置、表示装置の制御方法、および、プログラム |
KR102226820B1 (ko) * | 2014-08-20 | 2021-03-11 | 삼성전자주식회사 | 데이터 공유 방법 및 그 전자 장치 |
US10915161B2 (en) * | 2014-12-11 | 2021-02-09 | Intel Corporation | Facilitating dynamic non-visual markers for augmented reality on computing devices |
WO2016099947A1 (en) * | 2014-12-19 | 2016-06-23 | Halo Life Science, Llc | Use of ellagic acid dihydrate in food products and nutraceuticals |
US20170061700A1 (en) * | 2015-02-13 | 2017-03-02 | Julian Michael Urbach | Intercommunication between a head mounted display and a real world object |
JP6822410B2 (ja) * | 2015-09-30 | 2021-01-27 | ソニー株式会社 | 情報処理システム及び情報処理方法 |
US9959682B2 (en) | 2016-05-28 | 2018-05-01 | Acoustic Knowledge, LLC | Digital camera system for acoustic modeling |
RU167769U1 (ru) * | 2016-06-17 | 2017-01-10 | Виталий Витальевич Аверьянов | Устройство формирования виртуальных объектов дополненной реальности |
WO2017217894A1 (ru) * | 2016-06-17 | 2017-12-21 | Виталий Витальевич АВЕРЬЯНОВ | Устройство формирования виртуальных объектов дополненной реальности |
WO2018034894A1 (en) * | 2016-08-15 | 2018-02-22 | Pcms Holdings, Inc. | System and method using sound signal for material and texture identification for augmented reality |
US10074205B2 (en) | 2016-08-30 | 2018-09-11 | Intel Corporation | Machine creation of program with frame analysis method and apparatus |
US10359858B2 (en) * | 2016-09-07 | 2019-07-23 | Disney Enterprises, Inc. | Systems and methods for simulating sounds of a virtual object using procedural audio |
DE102016121281A1 (de) * | 2016-11-08 | 2018-05-09 | 3Dqr Gmbh | Verfahren und Vorrichtung zum Überlagern eines Abbilds einer realen Szenerie mit virtuellen Bild- und Audiodaten und ein mobiles Gerät |
US20180158243A1 (en) * | 2016-12-02 | 2018-06-07 | Google Inc. | Collaborative manipulation of objects in virtual reality |
US10304239B2 (en) | 2017-07-20 | 2019-05-28 | Qualcomm Incorporated | Extended reality virtual assistant |
CN107608519A (zh) * | 2017-09-26 | 2018-01-19 | 深圳传音通讯有限公司 | 一种声音调整方法及虚拟现实设备 |
CN107678828A (zh) * | 2017-10-26 | 2018-02-09 | 北京易讯理想科技有限公司 | 一种基于图像追踪技术实现的声音音量控制方法 |
CN107885331A (zh) * | 2017-11-09 | 2018-04-06 | 北京易讯理想科技有限公司 | 一种基于增强现实技术实现音频切换的交互方法 |
US20190200154A1 (en) * | 2017-12-21 | 2019-06-27 | Facebook, Inc. | Systems and methods for audio-based augmented reality |
CN108415570B (zh) * | 2018-03-07 | 2021-08-24 | 网易(杭州)网络有限公司 | 基于增强现实的控件选择方法和装置 |
TWI656362B (zh) * | 2018-03-26 | 2019-04-11 | 仁寶電腦工業股份有限公司 | 電子裝置及其物件重製方法 |
CN108769535B (zh) * | 2018-07-04 | 2021-08-10 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、存储介质和计算机设备 |
CN109065055B (zh) * | 2018-09-13 | 2020-12-11 | 三星电子(中国)研发中心 | 基于声音生成ar内容的方法、存储介质和装置 |
CN109308179A (zh) * | 2018-09-25 | 2019-02-05 | Oppo广东移动通信有限公司 | 3d音效处理方法及相关产品 |
CN109597481B (zh) * | 2018-11-16 | 2021-05-04 | Oppo广东移动通信有限公司 | Ar虚拟人物绘制方法、装置、移动终端及存储介质 |
KR102600989B1 (ko) * | 2019-01-29 | 2023-11-13 | 삼성전자주식회사 | 디스플레이 패널 및 이를 포함하는 디스플레이 장치 |
US11071912B2 (en) * | 2019-03-11 | 2021-07-27 | International Business Machines Corporation | Virtual reality immersion |
CN112449210A (zh) * | 2019-08-28 | 2021-03-05 | 北京字节跳动网络技术有限公司 | 声音处理方法、装置、电子设备及计算机可读存储介质 |
US20220291744A1 (en) * | 2019-09-03 | 2022-09-15 | Sony Group Corporation | Display processing device, display processing method, and recording medium |
US11159766B2 (en) | 2019-09-16 | 2021-10-26 | Qualcomm Incorporated | Placement of virtual content in environments with a plurality of physical participants |
WO2022211357A1 (en) | 2021-03-30 | 2022-10-06 | Samsung Electronics Co., Ltd. | Method and electronic device for automatically animating graphical object |
US12020382B2 (en) | 2022-03-24 | 2024-06-25 | Kyndryl, Inc. | Physical and virtual environment synchronization |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1165814A (ja) * | 1997-08-26 | 1999-03-09 | Fujitsu Ltd | インタラクティブシステム及び画像表示方法 |
JP2008539874A (ja) * | 2005-05-05 | 2008-11-20 | 株式会社ソニー・コンピュータエンタテインメント | コンピューターインタラクティブ処理による選択的音源聴取 |
US20110242134A1 (en) * | 2010-03-30 | 2011-10-06 | Sony Computer Entertainment Inc. | Method for an augmented reality character to maintain and exhibit awareness of an observer |
JP2012094100A (ja) * | 2010-06-02 | 2012-05-17 | Nintendo Co Ltd | 画像表示システム、画像表示装置および画像表示方法 |
Family Cites Families (52)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030018771A1 (en) * | 1997-07-15 | 2003-01-23 | Computer Associates Think, Inc. | Method and apparatus for generating and recognizing speech as a user interface element in systems and network management |
US6330486B1 (en) | 1997-07-16 | 2001-12-11 | Silicon Graphics, Inc. | Acoustic perspective in a virtual three-dimensional environment |
US6816437B1 (en) | 2002-06-03 | 2004-11-09 | Massachusetts Institute Of Technology | Method and apparatus for determining orientation |
US8947347B2 (en) | 2003-08-27 | 2015-02-03 | Sony Computer Entertainment Inc. | Controlling actions in a video game unit |
US7760248B2 (en) | 2002-07-27 | 2010-07-20 | Sony Computer Entertainment Inc. | Selective sound source listening in conjunction with computer interactive processing |
WO2004038697A1 (en) | 2002-10-23 | 2004-05-06 | Koninklijke Philips Electronics N.V. | Controlling an apparatus based on speech |
DE602006018897D1 (de) | 2005-05-05 | 2011-01-27 | Sony Computer Entertainment Inc | Videospielsteuerung mittels Joystick |
JP4019095B2 (ja) * | 2005-12-28 | 2007-12-05 | 株式会社コナミデジタルエンタテインメント | 音声処理装置、音声処理方法、ならびに、プログラム |
US20090238378A1 (en) * | 2008-03-18 | 2009-09-24 | Invism, Inc. | Enhanced Immersive Soundscapes Production |
US8170222B2 (en) * | 2008-04-18 | 2012-05-01 | Sony Mobile Communications Ab | Augmented reality enhanced audio |
US8520872B2 (en) * | 2008-08-14 | 2013-08-27 | Samsung Electronics Co., Ltd. | Apparatus and method for sound processing in a virtual reality system |
US9128281B2 (en) * | 2010-09-14 | 2015-09-08 | Microsoft Technology Licensing, Llc | Eyepiece with uniformly illuminated reflective display |
US20120194553A1 (en) * | 2010-02-28 | 2012-08-02 | Osterhout Group, Inc. | Ar glasses with sensor and user action based control of external devices with feedback |
US20120200601A1 (en) * | 2010-02-28 | 2012-08-09 | Osterhout Group, Inc. | Ar glasses with state triggered eye control interaction with advertising facility |
US10180572B2 (en) * | 2010-02-28 | 2019-01-15 | Microsoft Technology Licensing, Llc | AR glasses with event and user action control of external applications |
US20120194550A1 (en) * | 2010-02-28 | 2012-08-02 | Osterhout Group, Inc. | Sensor-based command and control of external devices with feedback from the external device to the ar glasses |
US20130314303A1 (en) * | 2010-02-28 | 2013-11-28 | Osterhout Group, Inc. | Ar glasses with user action control of and between internal and external applications with feedback |
US9285589B2 (en) * | 2010-02-28 | 2016-03-15 | Microsoft Technology Licensing, Llc | AR glasses with event and sensor triggered control of AR eyepiece applications |
US9759917B2 (en) * | 2010-02-28 | 2017-09-12 | Microsoft Technology Licensing, Llc | AR glasses with event and sensor triggered AR eyepiece interface to external devices |
US20120194552A1 (en) * | 2010-02-28 | 2012-08-02 | Osterhout Group, Inc. | Ar glasses with predictive control of external device based on event input |
US20140063055A1 (en) * | 2010-02-28 | 2014-03-06 | Osterhout Group, Inc. | Ar glasses specific user interface and control interface based on a connected external device type |
US20140063054A1 (en) * | 2010-02-28 | 2014-03-06 | Osterhout Group, Inc. | Ar glasses specific control interface based on a connected external device type |
US20120200488A1 (en) * | 2010-02-28 | 2012-08-09 | Osterhout Group, Inc. | Ar glasses with sensor and user action based control of eyepiece applications with feedback |
US20110214082A1 (en) * | 2010-02-28 | 2011-09-01 | Osterhout Group, Inc. | Projection triggering through an external marker in an augmented reality eyepiece |
US20120206485A1 (en) * | 2010-02-28 | 2012-08-16 | Osterhout Group, Inc. | Ar glasses with event and sensor triggered user movement control of ar eyepiece facilities |
US8488246B2 (en) * | 2010-02-28 | 2013-07-16 | Osterhout Group, Inc. | See-through near-eye display glasses including a curved polarizing film in the image source, a partially reflective, partially transmitting optical element and an optically flat film |
US20120206334A1 (en) * | 2010-02-28 | 2012-08-16 | Osterhout Group, Inc. | Ar glasses with event and user action capture device control of external applications |
US20120194420A1 (en) * | 2010-02-28 | 2012-08-02 | Osterhout Group, Inc. | Ar glasses with event triggered user action control of ar eyepiece facility |
US20120206322A1 (en) * | 2010-02-28 | 2012-08-16 | Osterhout Group, Inc. | Ar glasses with event and sensor input triggered user action capture device control of ar eyepiece facility |
US20120206335A1 (en) * | 2010-02-28 | 2012-08-16 | Osterhout Group, Inc. | Ar glasses with event, sensor, and user action based direct control of external devices with feedback |
EP2539759A1 (en) * | 2010-02-28 | 2013-01-02 | Osterhout Group, Inc. | Local advertising content on an interactive head-mounted eyepiece |
US20120194418A1 (en) * | 2010-02-28 | 2012-08-02 | Osterhout Group, Inc. | Ar glasses with user action control and event input based control of eyepiece application |
US20110213664A1 (en) * | 2010-02-28 | 2011-09-01 | Osterhout Group, Inc. | Local advertising content on an interactive head-mounted eyepiece |
US20120194551A1 (en) * | 2010-02-28 | 2012-08-02 | Osterhout Group, Inc. | Ar glasses with user-action based command and control of external devices |
US20120194549A1 (en) * | 2010-02-28 | 2012-08-02 | Osterhout Group, Inc. | Ar glasses specific user interface based on a connected external device type |
US20120200499A1 (en) * | 2010-02-28 | 2012-08-09 | Osterhout Group, Inc. | Ar glasses with event, sensor, and user action based control of applications resident on external devices with feedback |
US8610771B2 (en) | 2010-03-08 | 2013-12-17 | Empire Technology Development Llc | Broadband passive tracking for augmented reality |
US8384770B2 (en) * | 2010-06-02 | 2013-02-26 | Nintendo Co., Ltd. | Image display system, image display apparatus, and image display method |
EP2395768B1 (en) | 2010-06-11 | 2015-02-25 | Nintendo Co., Ltd. | Image display program, image display system, and image display method |
WO2011160114A1 (en) * | 2010-06-18 | 2011-12-22 | Minx, Inc. | Augmented reality |
US8581844B2 (en) * | 2010-06-23 | 2013-11-12 | Google Inc. | Switching between a first operational mode and a second operational mode using a natural motion gesture |
KR101683676B1 (ko) * | 2010-07-22 | 2016-12-07 | 삼성전자 주식회사 | 사운드를 이용한 증강 현실 서비스 제공 장치 및 방법 |
US8854356B2 (en) * | 2010-09-28 | 2014-10-07 | Nintendo Co., Ltd. | Storage medium having stored therein image processing program, image processing apparatus, image processing system, and image processing method |
US20120207308A1 (en) * | 2011-02-15 | 2012-08-16 | Po-Hsun Sung | Interactive sound playback device |
US20120306850A1 (en) * | 2011-06-02 | 2012-12-06 | Microsoft Corporation | Distributed asynchronous localization and mapping for augmented reality |
US8184069B1 (en) * | 2011-06-20 | 2012-05-22 | Google Inc. | Systems and methods for adaptive transmission of data |
US9973848B2 (en) * | 2011-06-21 | 2018-05-15 | Amazon Technologies, Inc. | Signal-enhancing beamforming in an augmented reality environment |
AU2011204946C1 (en) * | 2011-07-22 | 2012-07-26 | Microsoft Technology Licensing, Llc | Automatic text scrolling on a head-mounted display |
KR20140059213A (ko) * | 2011-08-30 | 2014-05-15 | 마이크로소프트 코포레이션 | 홍채 스캔 프로파일링을 이용하는 헤드 마운티드 디스플레이 |
US9606992B2 (en) * | 2011-09-30 | 2017-03-28 | Microsoft Technology Licensing, Llc | Personal audio/visual apparatus providing resource management |
TW201316328A (zh) * | 2011-10-14 | 2013-04-16 | Hon Hai Prec Ind Co Ltd | 聲音反饋裝置及其工作方法 |
US9672659B2 (en) * | 2011-12-27 | 2017-06-06 | Here Global B.V. | Geometrically and semanitically aware proxy for content placement |
-
2012
- 2012-08-15 US US13/585,927 patent/US9563265B2/en active Active
- 2012-11-21 CN CN201280064705.9A patent/CN104054039B/zh active Active
- 2012-11-21 IN IN4458CHN2014 patent/IN2014CN04458A/en unknown
- 2012-11-21 EP EP12806743.6A patent/EP2802962A1/en not_active Ceased
- 2012-11-21 WO PCT/US2012/066194 patent/WO2013106133A1/en active Application Filing
- 2012-11-21 KR KR1020147017620A patent/KR102078427B1/ko active IP Right Grant
- 2012-11-21 JP JP2014552191A patent/JP5996669B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1165814A (ja) * | 1997-08-26 | 1999-03-09 | Fujitsu Ltd | インタラクティブシステム及び画像表示方法 |
JP2008539874A (ja) * | 2005-05-05 | 2008-11-20 | 株式会社ソニー・コンピュータエンタテインメント | コンピューターインタラクティブ処理による選択的音源聴取 |
US20110242134A1 (en) * | 2010-03-30 | 2011-10-06 | Sony Computer Entertainment Inc. | Method for an augmented reality character to maintain and exhibit awareness of an observer |
JP2012094100A (ja) * | 2010-06-02 | 2012-05-17 | Nintendo Co Ltd | 画像表示システム、画像表示装置および画像表示方法 |
Non-Patent Citations (1)
Title |
---|
JPN6016029198; 大槻 麻衣: '複合現実空間との新しいマルチモーダル・インタラクション方法の提案と実現' 日本バーチャルリアリティ学会論文誌 第13巻 第2号 Vol.13 No.2, 20080630, P.247-255, 特定非営利活動法人日本バーチャルリアリティ学会 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10642575B2 (en) | 2014-12-02 | 2020-05-05 | Sony Corporation | Information processing device and method of information processing for notification of user speech received at speech recognizable volume levels |
WO2017221492A1 (ja) * | 2016-06-20 | 2017-12-28 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP2018160248A (ja) * | 2018-05-01 | 2018-10-11 | トヨタ自動車株式会社 | 応答生成方法、応答生成装置及び応答生成プログラム |
WO2021095330A1 (ja) * | 2019-11-12 | 2021-05-20 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
WO2013106133A1 (en) | 2013-07-18 |
KR20140117369A (ko) | 2014-10-07 |
EP2802962A1 (en) | 2014-11-19 |
US20130182858A1 (en) | 2013-07-18 |
IN2014CN04458A (ja) | 2015-09-04 |
CN104054039A (zh) | 2014-09-17 |
CN104054039B (zh) | 2017-04-19 |
JP5996669B2 (ja) | 2016-09-21 |
KR102078427B1 (ko) | 2020-02-17 |
US9563265B2 (en) | 2017-02-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5996669B2 (ja) | 音分析および幾何解析を用いた拡張現実 | |
US12002232B2 (en) | Systems and methods for simultaneous localization and mapping | |
CN111417028B (zh) | 信息处理方法、装置、存储介质及电子设备 | |
US10007349B2 (en) | Multiple sensor gesture recognition | |
JP6290331B2 (ja) | クラウド支援型拡張現実のための適応可能なフレームワーク | |
KR101759859B1 (ko) | 전자 디바이스들 사이의 접속을 확립하기 위한 방법 및 장치 | |
US8306267B1 (en) | Object tracking | |
US20130201215A1 (en) | Accessing applications in a mobile augmented reality environment | |
US20200194027A1 (en) | Method and apparatus for displaying pitch information in live webcast room, and storage medium | |
CN113424142A (zh) | 用于提供增强现实用户界面的电子装置及其操作方法 | |
CN112806022A (zh) | 电子装置和用于控制该电子装置的方法 | |
US20140232748A1 (en) | Device, method and computer readable recording medium for operating the same | |
US11974060B2 (en) | Varied depth determination using stereo vision and phase detection auto focus (PDAF) | |
US11967343B2 (en) | Automated video editing | |
US20210304452A1 (en) | Method and system for providing avatar service | |
WO2022192883A1 (en) | Automated video editing to add visual or audio effect corresponding to a detected motion of an object in the video | |
CN117406611A (zh) | 电子设备交互方法、系统、终端和可读存储介质 | |
CN115004131A (zh) | 设备和设备定位方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151023 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20151023 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160726 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160802 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160824 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5996669 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |