JP5985116B1 - 意図を介した拡張現実における仮想オブジェクトの操作 - Google Patents
意図を介した拡張現実における仮想オブジェクトの操作 Download PDFInfo
- Publication number
- JP5985116B1 JP5985116B1 JP2016518381A JP2016518381A JP5985116B1 JP 5985116 B1 JP5985116 B1 JP 5985116B1 JP 2016518381 A JP2016518381 A JP 2016518381A JP 2016518381 A JP2016518381 A JP 2016518381A JP 5985116 B1 JP5985116 B1 JP 5985116B1
- Authority
- JP
- Japan
- Prior art keywords
- user
- virtual object
- display
- state
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000003190 augmentative effect Effects 0.000 title description 24
- 230000004044 response Effects 0.000 claims abstract description 42
- 238000000034 method Methods 0.000 claims abstract description 30
- 230000007177 brain activity Effects 0.000 claims abstract description 24
- 230000033001 locomotion Effects 0.000 claims abstract description 12
- 230000000007 visual effect Effects 0.000 claims description 84
- 230000008859 change Effects 0.000 claims description 49
- 239000003607 modifier Substances 0.000 claims description 15
- 230000002452 interceptive effect Effects 0.000 claims description 7
- 230000006996 mental state Effects 0.000 claims 1
- 238000012800 visualization Methods 0.000 description 31
- 230000009471 action Effects 0.000 description 23
- 230000000875 corresponding effect Effects 0.000 description 22
- 238000010586 diagram Methods 0.000 description 20
- 210000004556 brain Anatomy 0.000 description 11
- 238000004891 communication Methods 0.000 description 11
- 238000004590 computer program Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 6
- 230000004424 eye movement Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 210000001097 facial muscle Anatomy 0.000 description 4
- 230000001960 triggered effect Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 210000003205 muscle Anatomy 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 210000004761 scalp Anatomy 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 206010041349 Somnolence Diseases 0.000 description 1
- 239000008186 active pharmaceutical agent Substances 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000002040 relaxant effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9537—Spatial or temporal dependent retrieval, e.g. spatiotemporal queries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/015—Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2200/00—Indexing scheme relating to G06F1/04 - G06F1/32
- G06F2200/16—Indexing scheme relating to G06F1/16 - G06F1/18
- G06F2200/163—Indexing scheme relating to constructional details of the computer
- G06F2200/1637—Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/011—Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/04—Changes in size, position or resolution of an image
- G09G2340/0492—Change of orientation of the displayed image, e.g. upside-down, mirrored
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/001—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
- G09G3/003—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
- G16H40/67—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/50—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computer Hardware Design (AREA)
- Neurosurgery (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Dermatology (AREA)
- Computer Graphics (AREA)
- Neurology (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Architecture (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
本出願は、2013年6月3日に申請された米国出願第13/908,621号に対する優先を主張する国際出願であり、上記米国出願は、その全体を本明細書において参照により援用される。
特定の実施形態が、ロジック、又は複数のコンポーネント、モジュール若しくはメカニズムを含むものとして説明されている。モジュールは、ソフトウェアモジュール(例えば、マシン可読媒体上に、又は送信信号内に具現化されたコード)又はハードウェアモジュールのいずれかを構成することができる。ハードウェアモジュールは、特定の動作を実行することができる有形ユニットであり、特定の方式で構成され又は配置されることができる。複数の実施形態例において、1つ以上のコンピュータシステム(例えば、スタンドアロンコンピュータシステム、クライアントコンピュータシステム、又はサーバコンピュータシステム)、又はコンピュータシステムの1つ以上のハードウェアモジュール(例えば、プロセッサ、又はプロセッサのグループ)が、ソフトウェア(例えば、アプリケーション、又はアプリケーションの一部)によって、本明細書に説明された特定の動作を実行するように動作するハードウェアモジュールとして構成されることができる。
実施形態例は、デジタル電子回路において、若しくはコンピュータハードウェア、ファームウェア、ソフトウェアにおいて、又はこれらの組み合わせにおいて実施することができる。実施形態例は、コンピュータプログラムプロダクトを用いて実施されてもよい。コンピュータプログラムプロダクトは、例えば、情報担体の中に有形に具現化されたコンピュータプログラムである。情報担体は、例えば、データ処理装置による実行のため又はデータ処理装置の動作を制御するためのマシン可読媒体である。データ処理装置は、例えば、プログラマブルプロセッサ、コンピュータ、又は複数のコンピュータである。
図13は、コンピュータシステム1300の例示的形態におけるマシンのブロック図であり、コンピュータシステム1300内で、本明細書に論じられた方法論のうち任意の1つ以上をマシンに実行させる命令を実行することができる。代替的な実施形態において、マシンはスタンドアロン装置として動作し、あるいは他のマシンに接続され(例えば、ネットワーク化され)てもよい。ネットワーク化されたデプロイにおいて、マシンは、サーバ‐クライアントネットワーク環境でのサーバ又はクライアントの能力において、又はピアツーピア(又は分散)ネットワーク環境でのピアマシンとして動作することができる。マシンは、パーソナルコンピュータ(PC)、タブレットPC、セットトップボックス(STB)、パーソナルデジタルアシスタント(PDA)、セルラー電話、ウェブ電化製品、ネットワークルータ、スイッチ、若しくはブリッジ、又はマシンにより取られるべきアクションを規定する命令を(順次に又はその他の方法で)実行することができる任意のマシンであってよい。さらに、単一のマシンだけが例示されているが、用語「マシン」は、本明細書に論じられた方法論のうち任意の1つ以上を実行するように命令のセット(又は複数のセット)を個々に又は一緒に実行するマシンの任意の集合をさらに含むものとする。
ディスクドライブユニット1316はマシン可読媒体1322を含み、このマシン可読媒体1322上に、本明細書に説明された方法論又は機能のうち任意の1つ以上を具現化し又はこれらにより利用されるデータ構造及び命令1324の1つ以上のセット(例えば、ソフトウェア)が記憶される。命令1324はさらに、コンピュータシステム1300による命令1324の実行の間、メインメモリ1304内及び/又はプロセッサ1302内に、完全に又は少なくとも部分的に存在することがあり、メインメモリ1304及びプロセッサ1302がさらにマシン可読媒体を構成することがある。命令1324はさらに、完全に又は少なくとも部分的に、スタティックメモリ1306内に存在することがある。
さらに、命令1324は、ネットワーク1326を通じて送信媒体を用いて送信され、あるいは受信されてもよい。命令1324は、ネットワークインターフェース装置1320と多数の周知の転送プロトコル(例えば、HTTP)のうち任意のものとを用いて送信することができる。通信ネットワークの例には、LAN、WAN、インターネット、携帯電話網、POTSネットワーク、及びワイヤレスデータネットワーク(例えば、WiFi及びWiMaxネットワーク)が含まれる。用語「送信媒体」には、マシンが実行する命令を記憶し、エンコードし又は伝えることができる任意の無形媒体を含むものとし、上記のソフトウェアの通信を容易にするためのデジタル若しくはアナログ通信信号又は他の無形媒体が含まれる。
Claims (16)
- 装置であって、
物理オブジェクトから参照識別子を捕捉するように構成されたカメラと、
ディスプレイと、
ハードウェアプロセッサを用いて実施され、前記参照識別子をネットワークを介して前記参照識別子に関連付けられた仮想オブジェクトデータを含むリモートサーバに通信し、前記仮想オブジェクトデータを当該装置において受信し、前記仮想オブジェクトデータを用いて前記ディスプレイに仮想オブジェクトを表示し、ユーザにより引き起こされる当該装置と前記物理オブジェクトとの間の相対的動きに応答して前記ディスプレイの中の前記仮想オブジェクトのビューを修正するように構成された拡張現実アプリケーションと、
前記ユーザの注視を決定し、前記ユーザの注視に基づいて前記仮想オブジェクト上の場所を識別するように構成されたアイトラッキングモジュールと、
前記仮想オブジェクト上の前記の識別された場所における前記ユーザの注視に応答して前記ユーザの脳活動データを受信し、前記ユーザの前記脳活動データに基づいて前記ユーザの心理状態を決定し、前記ユーザの心理状態と前記カメラにより捕捉された前記参照識別子とに基づいて、前記仮想オブジェクト上の前記の識別された場所におけるインタラクティブな特徴の状態を変更するように構成された脳活動アプリケーションと、
前記ディスプレイの焦点領域を識別し、前記ユーザの心理状態における変化に応答して前記仮想オブジェクトの前記特徴の状態を変更するように構成された視覚的ジェスチャモジュールであって、前記焦点領域は前記ディスプレイの予め定義された部分を含み、前記特徴の状態は、前記特徴が時間閾値を超える時間の間、前記ディスプレイの予め定義された部分内に位置することに応答して、変わる、視覚的ジェスチャモジュールと、
を含む装置。 - 前記ディスプレイの焦点領域を識別し、前記特徴が前記ディスプレイの焦点領域の中に表示されることに応答して前記仮想オブジェクトの前記特徴の状態を変更するように構成された視覚的ジェスチャモジュールであって、前記焦点領域は前記ディスプレイの予め定義された部分を含む、視覚的ジェスチャモジュール、
をさらに含む請求項1に記載の装置。 - 前記プロセッサに結合された記憶装置、
をさらに含み、
前記記憶装置は、視覚的参照と該視覚的参照に対応する仮想オブジェクトと該仮想オブジェクトの特徴とを記憶するように構成されたデータベースを含み、前記仮想オブジェクトの特徴は、前記ユーザの心理状態に応答して状態を変更するように構成される、
請求項1に記載の装置。 - 前記ユーザの心理状態は、リラックスした状態、緊張した状態、又は集中した状態のうち、少なくとも1つを含み、
前記脳活動アプリケーションは、前記ユーザの現在の心理状態に基づいて第2の仮想オブジェクトを選択し、前記ユーザの心理状態における変化に基づいて前記第2の仮想オブジェクトの部分を変更する、
請求項1に記載の装置。 - 前記ディスプレイの予め定義された部分は、前記ディスプレイに対して中央の領域、前記ディスプレイの端部に隣接する領域、前記ディスプレイのコーナーに隣接する領域、又はディスプレイ領域のユーザ定義された部分のうち、少なくとも1つを含む、請求項1に記載の装置。
- 前記特徴の状態は、前記脳活動データが時間閾値を超える時間の間、閾値を超えることに応答して、変わる、請求項1に記載の装置。
- 前記視覚的ジェスチャモジュールは、焦点領域検出器と特徴状態修正器とを含み、
前記焦点領域検出器は、前記ディスプレイの焦点領域の中の3次元の仮想オブジェクトの特徴の存在を検出するように構成され、
前記特徴状態修正器は、前記特徴が前記焦点領域の中に存在することに応答して前記特徴の状態を変更するように構成される、
請求項2に記載の装置。 - 前記特徴状態修正器は、前記焦点領域の中の前記仮想オブジェクトの第1のコンポーネントを前記焦点領域の中の前記仮想オブジェクトの第2のコンポーネントで置換することによって前記特徴の状態を変更するように構成される、請求項7に記載の装置。
- コンピューティング装置を用いて、物理オブジェクトから参照識別子を捕捉するステップと、
前記参照識別子をネットワークを介してリモートサーバに通信するステップであって、前記リモートサーバは、前記参照識別子に関連付けられた仮想オブジェクトデータを含む、ステップと、
前記仮想オブジェクトデータを前記コンピューティング装置において受信するステップと、
前記仮想オブジェクトデータを用いてディスプレイに仮想オブジェクトを表示するステップと、
ユーザにより引き起こされる前記コンピューティング装置と前記物理オブジェクトとの間の相対的動きに応答して、前記ディスプレイの中の前記仮想オブジェクトのビューを修正するステップと、
前記ユーザの注視を決定するステップと、
前記ユーザの注視に基づいて前記仮想オブジェクト上の場所を識別するステップと、
仮想イメージ上の前記の識別された場所における前記ユーザの注視に応答して、前記ユーザの脳活動データを受信するステップと、
前記ユーザの前記脳活動データに基づいて前記ユーザの心理状態を決定するステップと、
前記ユーザの心理状態とカメラにより捕捉された前記参照識別子とに基づいて、前記仮想イメージ上の前記の識別された場所におけるインタラクティブな特徴の状態を変更するステップと、
前記ディスプレイの焦点領域を識別するステップと、
前記ユーザの心理状態における変化に応答して前記仮想オブジェクトの前記特徴の状態を変更するステップであって、前記焦点領域は前記ディスプレイの予め定義された部分を含む、ステップと、
前記特徴が時間閾値を超える時間の間、前記ディスプレイの予め定義された部分内に位置することに応答して、前記特徴の状態を変更するステップと、
を含む方法。 - 前記ディスプレイの焦点領域を識別するステップと、
前記特徴が前記ディスプレイの焦点領域の中に表示されることに応答して前記仮想オブジェクトの前記特徴の状態を変更するステップであって、前記焦点領域は前記ディスプレイの予め定義された部分を含む、ステップと、
をさらに含む請求項9に記載の方法。 - データベースに、視覚的参照と該視覚的参照に対応する仮想オブジェクトと該仮想オブジェクトの特徴とを記憶するステップであって、前記仮想オブジェクトの特徴は、前記ユーザの心理状態に応答して状態を変更するように構成される、ステップ、
をさらに含む請求項9に記載の方法。 - 前記ユーザの現在の心理状態に基づいて第2の仮想オブジェクトを選択するステップと、
前記ユーザの心理状態における変化に基づいて前記第2の仮想オブジェクトの部分を変更するステップと、
をさらに含み、
前記ユーザの心理状態は、リラックスした状態、緊張した状態、又は集中した状態のうち、少なくとも1つを含む、
請求項9に記載の方法。 - 前記ディスプレイの予め定義された部分は、前記ディスプレイに対して中央の領域、前記ディスプレイの端部に隣接する領域、前記ディスプレイのコーナーに隣接する領域、又はディスプレイ領域のユーザ定義された部分のうち、少なくとも1つを含む、請求項9に記載の方法。
- 前記脳活動データが時間閾値を超える時間の間、閾値を超えることに応答して、前記特徴の状態を変更するステップ、
をさらに含む請求項9に記載の方法。 - 前記ディスプレイの焦点領域の中の前記仮想オブジェクトの特徴の存在を検出するステップと、
前記特徴の状態を、前記特徴が前記焦点領域の中に存在することに応答して、前記焦点領域の中の前記仮想オブジェクトの第1のコンポーネントを前記焦点領域の中の前記仮想オブジェクトの第2のコンポーネントで置換することによって変更するステップと、
をさらに含む請求項10に記載の方法。 - マシンの1以上のプロセッサにより実行されるときに、前記マシンに、
物理オブジェクトから参照識別子を捕捉するステップと、
前記参照識別子をネットワークを介してリモートサーバに通信するステップであって、前記リモートサーバは、前記参照識別子に関連付けられた仮想オブジェクトデータを含む、ステップと、
前記仮想オブジェクトデータを前記マシンにおいて受信するステップと、
前記仮想オブジェクトデータを用いてディスプレイに仮想オブジェクトを表示するステップと、
ユーザにより引き起こされる前記マシンと前記物理オブジェクトとの間の相対的動きに応答して、前記ディスプレイの中の前記仮想オブジェクトのビューを修正するステップと、
前記ユーザの注視を決定するステップと、
前記ユーザの注視に基づいて前記仮想オブジェクト上の場所を識別するステップと、
前記仮想オブジェクト上の前記の識別された場所における前記ユーザの注視に応答して、前記ユーザの脳活動データを受信するステップと、
前記ユーザの前記脳活動データに基づいて前記ユーザの心理状態を決定するステップと、
前記ユーザの心理状態とカメラにより捕捉された前記参照識別子とに基づいて、前記仮想オブジェクト上の前記の識別された場所におけるインタラクティブな特徴の状態を変更するステップと、
前記ディスプレイの焦点領域を識別するステップと、
前記ユーザの心理状態における変化に応答して前記仮想オブジェクトの前記特徴の状態を変更するステップであって、前記焦点領域は前記ディスプレイの予め定義された部分を含む、ステップと、
前記特徴が時間閾値を超える時間の間、前記ディスプレイの予め定義された部分内に位置することに応答して、前記特徴の状態を変更するステップと、
を含む動作を実行させる命令を含む非一時的マシン可読媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/908,621 | 2013-06-03 | ||
US13/908,621 US9383819B2 (en) | 2013-06-03 | 2013-06-03 | Manipulation of virtual object in augmented reality via intent |
PCT/US2014/040538 WO2014197387A1 (en) | 2013-06-03 | 2014-06-02 | Manipulation of virtual object in augmented reality via intent |
Publications (2)
Publication Number | Publication Date |
---|---|
JP5985116B1 true JP5985116B1 (ja) | 2016-09-06 |
JP2016529581A JP2016529581A (ja) | 2016-09-23 |
Family
ID=51984516
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016518381A Expired - Fee Related JP5985116B1 (ja) | 2013-06-03 | 2014-06-02 | 意図を介した拡張現実における仮想オブジェクトの操作 |
Country Status (6)
Country | Link |
---|---|
US (2) | US9383819B2 (ja) |
EP (2) | EP3863276A1 (ja) |
JP (1) | JP5985116B1 (ja) |
KR (1) | KR101730759B1 (ja) |
AU (1) | AU2014275184B2 (ja) |
WO (1) | WO2014197387A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9996983B2 (en) | 2013-06-03 | 2018-06-12 | Daqri, Llc | Manipulation of virtual object in augmented reality via intent |
JP2021170384A (ja) * | 2016-05-20 | 2021-10-28 | マジック リープ, インコーポレイテッドMagic Leap, Inc. | ユーザインターフェースメニューのコンテキスト認識 |
Families Citing this family (70)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9589000B2 (en) * | 2012-08-30 | 2017-03-07 | Atheer, Inc. | Method and apparatus for content association and history tracking in virtual and augmented reality |
US9354702B2 (en) | 2013-06-03 | 2016-05-31 | Daqri, Llc | Manipulation of virtual object in augmented reality via thought |
US10188309B2 (en) | 2013-11-27 | 2019-01-29 | North Inc. | Systems, articles, and methods for electromyography sensors |
US10042422B2 (en) | 2013-11-12 | 2018-08-07 | Thalmic Labs Inc. | Systems, articles, and methods for capacitive electromyography sensors |
US20150124566A1 (en) | 2013-10-04 | 2015-05-07 | Thalmic Labs Inc. | Systems, articles and methods for wearable electronic devices employing contact sensors |
US11921471B2 (en) | 2013-08-16 | 2024-03-05 | Meta Platforms Technologies, Llc | Systems, articles, and methods for wearable devices having secondary power sources in links of a band for providing secondary power in addition to a primary power source |
US10217284B2 (en) * | 2013-09-30 | 2019-02-26 | Qualcomm Incorporated | Augmented virtuality |
KR101740827B1 (ko) * | 2014-12-19 | 2017-05-29 | 주식회사 와이드벤티지 | 자석 등을 이용한 컨텐츠 표시 방법 및 이를 수행하는 사용자 단말 |
CN105892050A (zh) * | 2015-01-02 | 2016-08-24 | 靳卫强 | 增强现实智能眼镜 |
US20170061700A1 (en) * | 2015-02-13 | 2017-03-02 | Julian Michael Urbach | Intercommunication between a head mounted display and a real world object |
KR101750294B1 (ko) * | 2015-09-17 | 2017-06-26 | 한국과학기술연구원 | 단일 뇌에 적용되는 뇌-뇌 인터페이스 시스템 |
JP2017162102A (ja) * | 2016-03-08 | 2017-09-14 | 株式会社東芝 | 保守支援方法、保守支援システム、及び保守支援プログラム |
US10394316B2 (en) * | 2016-04-07 | 2019-08-27 | Hand Held Products, Inc. | Multiple display modes on a mobile device |
US10290149B2 (en) * | 2016-04-08 | 2019-05-14 | Maxx Media Group, LLC | System, method and software for interacting with virtual three dimensional images that appear to project forward of or above an electronic display |
US20170322679A1 (en) * | 2016-05-09 | 2017-11-09 | John C. Gordon | Modifying a User Interface Based Upon a User's Brain Activity and Gaze |
US9886621B2 (en) * | 2016-05-11 | 2018-02-06 | Microsoft Technology Licensing, Llc | Segmenting scenes into sematic components using neurological readings |
AU2017300636A1 (en) * | 2016-07-21 | 2019-01-31 | Magic Leap, Inc. | Technique for controlling virtual image generation system using emotional states of user |
EP3487595A4 (en) | 2016-07-25 | 2019-12-25 | CTRL-Labs Corporation | SYSTEM AND METHOD FOR MEASURING MOVEMENTS OF ARTICULATED RIGID BODIES |
US11216069B2 (en) | 2018-05-08 | 2022-01-04 | Facebook Technologies, Llc | Systems and methods for improved speech recognition using neuromuscular information |
EP3487395A4 (en) | 2016-07-25 | 2020-03-04 | CTRL-Labs Corporation | METHODS AND APPARATUS FOR PREDICTING MUSCULOSKELETAL POSITION INFORMATION USING PORTABLE SELF-CONTAINED SENSORS |
US10409371B2 (en) | 2016-07-25 | 2019-09-10 | Ctrl-Labs Corporation | Methods and apparatus for inferring user intent based on neuromuscular signals |
US10620817B2 (en) | 2017-01-13 | 2020-04-14 | International Business Machines Corporation | Providing augmented reality links to stored files |
US11058961B2 (en) * | 2017-03-09 | 2021-07-13 | Kaleb Matson | Immersive device |
US10625170B2 (en) * | 2017-03-09 | 2020-04-21 | Lumena Inc. | Immersive device |
WO2018168247A1 (ja) * | 2017-03-15 | 2018-09-20 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
CN107204031B (zh) * | 2017-04-27 | 2021-08-24 | 腾讯科技(深圳)有限公司 | 信息展示方法及装置 |
WO2019051498A1 (en) | 2017-09-11 | 2019-03-14 | Nike Innovate C.V. | APPARATUS, SYSTEM AND METHOD OF SEARCH USING GEOCACHING |
CN111295686A (zh) | 2017-09-12 | 2020-06-16 | 耐克创新有限合伙公司 | 多因素认证与认证后处理系统 |
US11509653B2 (en) | 2017-09-12 | 2022-11-22 | Nike, Inc. | Multi-factor authentication and post-authentication processing system |
EP3697297A4 (en) | 2017-10-19 | 2020-12-16 | Facebook Technologies, Inc. | SYSTEMS AND METHODS FOR IDENTIFYING BIOLOGICAL STRUCTURES ASSOCIATED WITH NEUROMUSCULAR SOURCE SIGNALS |
US11961494B1 (en) | 2019-03-29 | 2024-04-16 | Meta Platforms Technologies, Llc | Electromagnetic interference reduction in extended reality environments |
US10970936B2 (en) | 2018-10-05 | 2021-04-06 | Facebook Technologies, Llc | Use of neuromuscular signals to provide enhanced interactions with physical objects in an augmented reality environment |
WO2019147956A1 (en) | 2018-01-25 | 2019-08-01 | Ctrl-Labs Corporation | Visualization of reconstructed handstate information |
US11150730B1 (en) | 2019-04-30 | 2021-10-19 | Facebook Technologies, Llc | Devices, systems, and methods for controlling computing devices via neuromuscular signals of users |
US11493993B2 (en) | 2019-09-04 | 2022-11-08 | Meta Platforms Technologies, Llc | Systems, methods, and interfaces for performing inputs based on neuromuscular control |
US11481030B2 (en) | 2019-03-29 | 2022-10-25 | Meta Platforms Technologies, Llc | Methods and apparatus for gesture detection and classification |
US11907423B2 (en) | 2019-11-25 | 2024-02-20 | Meta Platforms Technologies, Llc | Systems and methods for contextualized interactions with an environment |
US10937414B2 (en) | 2018-05-08 | 2021-03-02 | Facebook Technologies, Llc | Systems and methods for text input using neuromuscular information |
US11573679B2 (en) * | 2018-04-30 | 2023-02-07 | The Trustees of the California State University | Integration of user emotions for a smartphone or other communication device environment |
US10592001B2 (en) | 2018-05-08 | 2020-03-17 | Facebook Technologies, Llc | Systems and methods for improved speech recognition using neuromuscular information |
EP3801216A4 (en) | 2018-05-29 | 2021-04-14 | Facebook Technologies, LLC. | SHIELDING TECHNIQUES FOR NOISE REDUCTION IN SURFACE ELECTROMYOGRAPHY SIGNAL MEASUREMENT AND RELATED SYSTEMS AND METHODS |
US10970374B2 (en) | 2018-06-14 | 2021-04-06 | Facebook Technologies, Llc | User identification and authentication with neuromuscular signatures |
US11169601B2 (en) | 2018-07-12 | 2021-11-09 | Toyota Research Institute, Inc. | Methods and systems for determining teleoperating user intent via eye tracking |
US11045137B2 (en) | 2018-07-19 | 2021-06-29 | Facebook Technologies, Llc | Methods and apparatus for improved signal robustness for a wearable neuromuscular recording device |
EP3836836B1 (en) | 2018-08-13 | 2024-03-20 | Meta Platforms Technologies, LLC | Real-time spike detection and identification |
EP4241661A1 (en) | 2018-08-31 | 2023-09-13 | Facebook Technologies, LLC | Camera-guided interpretation of neuromuscular signals |
WO2020061451A1 (en) | 2018-09-20 | 2020-03-26 | Ctrl-Labs Corporation | Neuromuscular text entry, writing and drawing in augmented reality systems |
JP2022500729A (ja) * | 2018-09-20 | 2022-01-04 | フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニーFacebook Technologies, Llc | 拡張現実システムの神経筋制御 |
WO2020069181A1 (en) | 2018-09-26 | 2020-04-02 | Ctrl-Labs Corporation | Neuromuscular control of physical objects in an environment |
JP2022550924A (ja) | 2018-11-02 | 2022-12-06 | ヴェローナ ホールディングス エスイーズィーシー | トークン化プラットフォーム |
US11797087B2 (en) | 2018-11-27 | 2023-10-24 | Meta Platforms Technologies, Llc | Methods and apparatus for autocalibration of a wearable electrode sensor system |
US11030812B2 (en) * | 2019-01-02 | 2021-06-08 | The Boeing Company | Augmented reality system using enhanced models |
US10905383B2 (en) | 2019-02-28 | 2021-02-02 | Facebook Technologies, Llc | Methods and apparatus for unsupervised one-shot machine learning for classification of human gestures and estimation of applied forces |
US11786694B2 (en) | 2019-05-24 | 2023-10-17 | NeuroLight, Inc. | Device, method, and app for facilitating sleep |
US11611608B1 (en) | 2019-07-19 | 2023-03-21 | Snap Inc. | On-demand camera sharing over a network |
EP3772042A3 (en) | 2019-08-02 | 2021-04-07 | Samsung Electronics Co., Ltd. | Electronic apparatus for augmented reality and control method thereof |
US11275453B1 (en) | 2019-09-30 | 2022-03-15 | Snap Inc. | Smart ring for manipulating virtual objects displayed by a wearable device |
KR102396337B1 (ko) * | 2020-02-26 | 2022-05-10 | 네이버랩스 주식회사 | 오브젝트 기반 증강 컨텐츠의 위치 기반 ar 연동을 위한 전자 장치 및 그의 동작 방법 |
US11277597B1 (en) | 2020-03-31 | 2022-03-15 | Snap Inc. | Marker-based guided AR experience |
US11798429B1 (en) | 2020-05-04 | 2023-10-24 | Snap Inc. | Virtual tutorials for musical instruments with finger tracking in augmented reality |
US11520399B2 (en) | 2020-05-26 | 2022-12-06 | Snap Inc. | Interactive augmented reality experiences using positional tracking |
WO2022056118A1 (en) * | 2020-09-09 | 2022-03-17 | Snap Inc. | Augmented reality messenger system |
CN116171566A (zh) | 2020-09-16 | 2023-05-26 | 斯纳普公司 | 上下文触发的增强现实 |
US11925863B2 (en) | 2020-09-18 | 2024-03-12 | Snap Inc. | Tracking hand gestures for interactive game control in augmented reality |
US11546505B2 (en) | 2020-09-28 | 2023-01-03 | Snap Inc. | Touchless photo capture in response to detected hand gestures |
US11740313B2 (en) | 2020-12-30 | 2023-08-29 | Snap Inc. | Augmented reality precision tracking and display |
US11531402B1 (en) | 2021-02-25 | 2022-12-20 | Snap Inc. | Bimanual gestures for controlling virtual and graphical elements |
US12013985B1 (en) | 2021-02-25 | 2024-06-18 | Snap Inc. | Single-handed gestures for reviewing virtual content |
US11868531B1 (en) | 2021-04-08 | 2024-01-09 | Meta Platforms Technologies, Llc | Wearable device providing for thumb-to-finger-based input gestures detected based on neuromuscular signals, and systems and methods of use thereof |
CN117178247A (zh) | 2021-04-19 | 2023-12-05 | 斯纳普公司 | 用于动画化及控制虚拟和图形元素的手势 |
Family Cites Families (82)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5759044A (en) * | 1990-02-22 | 1998-06-02 | Redmond Productions | Methods and apparatus for generating and processing synthetic and absolute real time environments |
FI111892B (fi) * | 1997-04-22 | 2003-09-30 | Nokia Oy Ab | Monitoiminen viestinlaite |
US20020044152A1 (en) * | 2000-10-16 | 2002-04-18 | Abbott Kenneth H. | Dynamic integration of computer generated and real world images |
US8348675B2 (en) * | 2000-10-19 | 2013-01-08 | Life Success Academy | Apparatus and method for delivery of instructional information |
US9153074B2 (en) | 2011-07-18 | 2015-10-06 | Dylan T X Zhou | Wearable augmented reality eyeglass communication device including mobile phone and mobile computing via virtual touch screen gesture control and neuron command |
US7567241B2 (en) | 2004-08-03 | 2009-07-28 | Silverbrook Research Pty Ltd | Stylus with customizable appearance |
US7788075B2 (en) * | 2004-08-16 | 2010-08-31 | Mcw Research Foundation | System and method for sensory defect simulation |
US8614676B2 (en) | 2007-04-24 | 2013-12-24 | Kuo-Ching Chiang | User motion detection mouse for electronic device |
WO2006103676A2 (en) * | 2005-03-31 | 2006-10-05 | Ronen Wolfson | Interactive surface and display system |
US20060252979A1 (en) * | 2005-05-09 | 2006-11-09 | Vesely Michael A | Biofeedback eyewear system |
US11428937B2 (en) | 2005-10-07 | 2022-08-30 | Percept Technologies | Enhanced optical and perceptual digital eyewear |
US8209620B2 (en) * | 2006-01-31 | 2012-06-26 | Accenture Global Services Limited | System for storage and navigation of application states and interactions |
US9101279B2 (en) | 2006-02-15 | 2015-08-11 | Virtual Video Reality By Ritchey, Llc | Mobile user borne brain activity data and surrounding environment data correlation system |
US9344612B2 (en) * | 2006-02-15 | 2016-05-17 | Kenneth Ira Ritchey | Non-interference field-of-view support apparatus for a panoramic facial sensor |
US20080050711A1 (en) * | 2006-08-08 | 2008-02-28 | Doswell Jayfus T | Modulating Computer System Useful for Enhancing Learning |
US20080071559A1 (en) * | 2006-09-19 | 2008-03-20 | Juha Arrasvuori | Augmented reality assisted shopping |
US20080218472A1 (en) * | 2007-03-05 | 2008-09-11 | Emotiv Systems Pty., Ltd. | Interface to convert mental states and facial expressions to application input |
US10198958B2 (en) * | 2007-05-04 | 2019-02-05 | Freer Logic | Method and apparatus for training a team by employing brainwave monitoring and synchronized attention levels of team trainees |
NZ560457A (en) * | 2007-08-15 | 2010-02-26 | William Bryan Woodard | Image generation system |
EP2208354A4 (en) * | 2007-10-10 | 2010-12-22 | Gerard Dirk Smits | IMAGE PROJECTOR WITH REFLECTIVE LIGHT TRACKING |
US9513699B2 (en) | 2007-10-24 | 2016-12-06 | Invention Science Fund I, LL | Method of selecting a second content based on a user's reaction to a first content |
US7754955B2 (en) * | 2007-11-02 | 2010-07-13 | Mark Patrick Egan | Virtual reality composer platform system |
US20090156955A1 (en) * | 2007-12-13 | 2009-06-18 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Methods and systems for comparing media content |
US20090327871A1 (en) * | 2008-06-26 | 2009-12-31 | Microsoft Corporation | I/o for constrained devices |
US9191238B2 (en) | 2008-07-23 | 2015-11-17 | Yahoo! Inc. | Virtual notes in a reality overlay |
EP2327003B1 (en) * | 2008-09-17 | 2017-03-29 | Nokia Technologies Oy | User interface for augmented reality |
US8671069B2 (en) * | 2008-12-22 | 2014-03-11 | The Trustees Of Columbia University, In The City Of New York | Rapid image annotation via brain state decoding and visual pattern mining |
US20120189804A1 (en) | 2009-04-06 | 2012-07-26 | E.I.Du Pont De Nemours And Company | Ballistic resistant armor articles |
US8427508B2 (en) | 2009-06-25 | 2013-04-23 | Nokia Corporation | Method and apparatus for an augmented reality user interface |
KR101565414B1 (ko) | 2009-07-10 | 2015-11-03 | 엘지전자 주식회사 | 이동 단말기 및 그 제어방법 |
US8531452B2 (en) * | 2009-07-21 | 2013-09-10 | Konami Digital Entertainment Co., Ltd. | Video game machine, gaming image display control method and display mode switching control method |
US20110040155A1 (en) * | 2009-08-13 | 2011-02-17 | International Business Machines Corporation | Multiple sensory channel approach for translating human emotions in a computing environment |
JP6061678B2 (ja) * | 2009-11-04 | 2017-01-18 | アリゾナ・ボード・オブ・リージェンツ・オン・ビハーフ・オブ・アリゾナ・ステイト・ユニバーシティーArizona Board of Regents on behalf of Arizona State University | 脳調節インターフェース装置 |
KR101080803B1 (ko) * | 2009-11-17 | 2011-11-07 | 한국과학기술연구원 | 실감 인터랙션 시스템 및 방법 |
US9373123B2 (en) * | 2009-12-30 | 2016-06-21 | Iheartmedia Management Services, Inc. | Wearable advertising ratings methods and systems |
CN102148011A (zh) * | 2010-02-08 | 2011-08-10 | 鸿富锦精密工业(深圳)有限公司 | 互动式影像展示方法 |
WO2011106797A1 (en) * | 2010-02-28 | 2011-09-01 | Osterhout Group, Inc. | Projection triggering through an external marker in an augmented reality eyepiece |
US20130278631A1 (en) * | 2010-02-28 | 2013-10-24 | Osterhout Group, Inc. | 3d positioning of augmented reality information |
US8384770B2 (en) | 2010-06-02 | 2013-02-26 | Nintendo Co., Ltd. | Image display system, image display apparatus, and image display method |
KR101347518B1 (ko) | 2010-08-12 | 2014-01-07 | 주식회사 팬택 | 필터의 선택이 가능한 증강 현실 사용자 장치 및 방법, 그리고, 증강 현실 서버 |
US20120050144A1 (en) * | 2010-08-26 | 2012-03-01 | Clayton Richard Morlock | Wearable augmented reality computing apparatus |
SG2014013643A (en) * | 2010-10-21 | 2014-07-30 | Holybrain Bvba | Method and apparatus for neuropsychological modeling of human experience and purchasing behavior |
US20120113223A1 (en) | 2010-11-05 | 2012-05-10 | Microsoft Corporation | User Interaction in Augmented Reality |
PT105469A (pt) * | 2011-01-04 | 2012-11-19 | Marta Isabel Santos Paiva Ferraz Da Conceicao | Fato interativo para videojogos em que se usam sensores eletrónicos e objetos físicos |
US10109065B2 (en) * | 2011-01-25 | 2018-10-23 | Qualcomm Incorporated | Using occlusions to detect and track three-dimensional objects |
US9480907B2 (en) * | 2011-03-02 | 2016-11-01 | Microsoft Technology Licensing, Llc | Immersive display with peripheral illusions |
US20120257035A1 (en) * | 2011-04-08 | 2012-10-11 | Sony Computer Entertainment Inc. | Systems and methods for providing feedback by tracking user gaze and gestures |
US8810598B2 (en) * | 2011-04-08 | 2014-08-19 | Nant Holdings Ip, Llc | Interference based augmented reality hosting platforms |
JP5741160B2 (ja) * | 2011-04-08 | 2015-07-01 | ソニー株式会社 | 表示制御装置、表示制御方法、およびプログラム |
US8676937B2 (en) * | 2011-05-12 | 2014-03-18 | Jeffrey Alan Rapaport | Social-topical adaptive networking (STAN) system allowing for group based contextual transaction offers and acceptances and hot topic watchdogging |
US8676230B2 (en) | 2011-05-16 | 2014-03-18 | Neurosky, Inc. | Bio signal based mobile device applications |
KR101252169B1 (ko) | 2011-05-27 | 2013-04-05 | 엘지전자 주식회사 | 휴대 단말기 및 그 동작 제어방법 |
KR101239284B1 (ko) * | 2011-05-31 | 2013-03-06 | 삼성에스디에스 주식회사 | 증강현실 컨텐츠를 통해 타겟장치를 제어하는 제어단말기 및 서버 |
US10108783B2 (en) * | 2011-07-05 | 2018-10-23 | Saudi Arabian Oil Company | Systems, computer medium and computer-implemented methods for monitoring health of employees using mobile devices |
US9256711B2 (en) * | 2011-07-05 | 2016-02-09 | Saudi Arabian Oil Company | Systems, computer medium and computer-implemented methods for providing health information to employees via augmented reality display |
KR101280170B1 (ko) * | 2011-08-01 | 2013-06-28 | 김현아 | 이동 단말에서의 증강현실 기반 정보 처리 방법 |
AU2011205223C1 (en) | 2011-08-09 | 2013-03-28 | Microsoft Technology Licensing, Llc | Physical interaction with virtual objects for DRM |
WO2013039748A2 (en) * | 2011-09-16 | 2013-03-21 | Social Communications Company | Capabilities based management of virtual areas |
US20130138248A1 (en) * | 2011-11-30 | 2013-05-30 | Honeywell International Inc. | Thought enabled hands-free control of multiple degree-of-freedom systems |
TWI482108B (zh) * | 2011-12-29 | 2015-04-21 | Univ Nat Taiwan | To bring virtual social networks into real-life social systems and methods |
US20130178257A1 (en) | 2012-01-06 | 2013-07-11 | Augaroo, Inc. | System and method for interacting with virtual objects in augmented realities |
KR101874895B1 (ko) * | 2012-01-12 | 2018-07-06 | 삼성전자 주식회사 | 증강 현실 제공 방법 및 이를 지원하는 단말기 |
US20130201215A1 (en) | 2012-02-03 | 2013-08-08 | John A. MARTELLARO | Accessing applications in a mobile augmented reality environment |
US20130241805A1 (en) * | 2012-03-15 | 2013-09-19 | Google Inc. | Using Convergence Angle to Select Among Different UI Elements |
US9449446B1 (en) * | 2012-05-27 | 2016-09-20 | Make Ideas, LLC | System employing a plurality of brain/body-generated inputs to control the multi-action operation of a controllable device |
US20140002443A1 (en) * | 2012-06-29 | 2014-01-02 | Blackboard Inc. | Augmented reality interface |
US10180715B2 (en) * | 2012-10-05 | 2019-01-15 | Elwha Llc | Correlating user reaction with at least an aspect associated with an augmentation of an augmented view |
US9030495B2 (en) * | 2012-11-21 | 2015-05-12 | Microsoft Technology Licensing, Llc | Augmented reality help |
WO2014085910A1 (en) * | 2012-12-04 | 2014-06-12 | Interaxon Inc. | System and method for enhancing content using brain-state data |
US9791921B2 (en) * | 2013-02-19 | 2017-10-17 | Microsoft Technology Licensing, Llc | Context-aware augmented reality object commands |
KR102099086B1 (ko) * | 2013-02-20 | 2020-04-09 | 삼성전자주식회사 | 디지털 텔레비전 및 사용자 디바이스를 이용하여 사용자 맞춤형 인터랙션을 제공하는 방법, 그 디지털 텔레비전 및 사용자 디바이스 |
US20140240351A1 (en) * | 2013-02-27 | 2014-08-28 | Michael Scavezze | Mixed reality augmentation |
US20140267005A1 (en) * | 2013-03-14 | 2014-09-18 | Julian M. Urbach | Eye piece for augmented and virtual reality |
US9235968B2 (en) * | 2013-03-14 | 2016-01-12 | Otoy, Inc. | Tactile elements for a wearable eye piece |
US9773332B2 (en) * | 2013-03-14 | 2017-09-26 | Otoy, Inc. | Visual cortex thought detector interface |
US20140282220A1 (en) * | 2013-03-14 | 2014-09-18 | Tim Wantland | Presenting object models in augmented reality images |
US9378590B2 (en) * | 2013-04-23 | 2016-06-28 | Microsoft Technology Licensing, Llc | Augmented reality auction platform |
US9245388B2 (en) * | 2013-05-13 | 2016-01-26 | Microsoft Technology Licensing, Llc | Interactions of virtual objects with surfaces |
US9685003B2 (en) * | 2013-06-03 | 2017-06-20 | Microsoft Technology Licensing, Llc | Mixed reality data collaboration |
US9354702B2 (en) | 2013-06-03 | 2016-05-31 | Daqri, Llc | Manipulation of virtual object in augmented reality via thought |
US9383819B2 (en) | 2013-06-03 | 2016-07-05 | Daqri, Llc | Manipulation of virtual object in augmented reality via intent |
US9292764B2 (en) * | 2013-09-17 | 2016-03-22 | Qualcomm Incorporated | Method and apparatus for selectively providing information on objects in a captured image |
-
2013
- 2013-06-03 US US13/908,621 patent/US9383819B2/en active Active
-
2014
- 2014-06-02 EP EP20212540.7A patent/EP3863276A1/en not_active Withdrawn
- 2014-06-02 WO PCT/US2014/040538 patent/WO2014197387A1/en active Application Filing
- 2014-06-02 KR KR1020157037170A patent/KR101730759B1/ko active IP Right Grant
- 2014-06-02 JP JP2016518381A patent/JP5985116B1/ja not_active Expired - Fee Related
- 2014-06-02 EP EP14807097.2A patent/EP3005682B1/en active Active
- 2014-06-02 AU AU2014275184A patent/AU2014275184B2/en active Active
-
2016
- 2016-06-02 US US15/171,762 patent/US9996983B2/en active Active
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9996983B2 (en) | 2013-06-03 | 2018-06-12 | Daqri, Llc | Manipulation of virtual object in augmented reality via intent |
JP2021170384A (ja) * | 2016-05-20 | 2021-10-28 | マジック リープ, インコーポレイテッドMagic Leap, Inc. | ユーザインターフェースメニューのコンテキスト認識 |
US12014464B2 (en) | 2016-05-20 | 2024-06-18 | Magic Leap, Inc. | Contextual awareness of user interface menus |
Also Published As
Publication number | Publication date |
---|---|
US9996983B2 (en) | 2018-06-12 |
US20160275726A1 (en) | 2016-09-22 |
AU2014275184A1 (en) | 2016-01-21 |
JP2016529581A (ja) | 2016-09-23 |
EP3863276A1 (en) | 2021-08-11 |
US9383819B2 (en) | 2016-07-05 |
EP3005682A4 (en) | 2017-02-08 |
KR20160016955A (ko) | 2016-02-15 |
US20140354532A1 (en) | 2014-12-04 |
EP3005682B1 (en) | 2020-12-09 |
WO2014197387A1 (en) | 2014-12-11 |
KR101730759B1 (ko) | 2017-05-11 |
EP3005682A1 (en) | 2016-04-13 |
AU2014275184B2 (en) | 2016-06-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5985116B1 (ja) | 意図を介した拡張現実における仮想オブジェクトの操作 | |
JP6040342B2 (ja) | 思考を介した拡張現実における仮想オブジェクトの操作 | |
US11748056B2 (en) | Tying a virtual speaker to a physical space | |
JP2024509722A (ja) | エクステンデッドリアリティにおけるユーザ相互作用 | |
US20180203518A1 (en) | Control of a real world object user interface | |
CN116235507A (zh) | 用于媒体捕获和管理的用户界面 | |
KR20140011204A (ko) | 컨텐츠 제공 방법 및 이를 적용한 디스플레이 장치 | |
US20160374616A1 (en) | Electrode contact quality | |
KR20210072150A (ko) | 다중 참가자 라이브 통신 사용자 인터페이스 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160427 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160427 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20160427 |
|
A529 | Written submission of copy of amendment under article 34 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A529 Effective date: 20160125 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20160701 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160712 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160802 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5985116 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: R3D02 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |