JP6633256B1 - 拡張現実および/または仮想現実環境におけるジェスチャーによる仮想注記面の生成 - Google Patents
拡張現実および/または仮想現実環境におけるジェスチャーによる仮想注記面の生成 Download PDFInfo
- Publication number
- JP6633256B1 JP6633256B1 JP2019529992A JP2019529992A JP6633256B1 JP 6633256 B1 JP6633256 B1 JP 6633256B1 JP 2019529992 A JP2019529992 A JP 2019529992A JP 2019529992 A JP2019529992 A JP 2019529992A JP 6633256 B1 JP6633256 B1 JP 6633256B1
- Authority
- JP
- Japan
- Prior art keywords
- virtual
- electronic device
- handheld electronic
- detected
- detecting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003190 augmentative effect Effects 0.000 title abstract description 46
- 230000004044 response Effects 0.000 claims description 54
- 238000001514 detection method Methods 0.000 claims description 40
- 230000015654 memory Effects 0.000 claims description 39
- 238000000034 method Methods 0.000 claims description 36
- 230000004913 activation Effects 0.000 claims description 7
- 230000000977 initiatory effect Effects 0.000 claims description 2
- 238000012552 review Methods 0.000 abstract description 2
- 238000004891 communication Methods 0.000 description 24
- 238000004590 computer program Methods 0.000 description 12
- 230000003993 interaction Effects 0.000 description 11
- 230000008569 process Effects 0.000 description 7
- 241000699666 Mus <mouse, genus> Species 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000003213 activating effect Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 240000007320 Pinus strobus Species 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 230000009849 deactivation Effects 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 230000001788 irregular Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000000881 depressing effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/004—Annotating, labelling
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Architecture (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Controls And Circuits For Display Device (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
本願は、2016年12月5日に出願された米国出願第15/369,620号の継続出願であり、この出願に基づく優先権を主張し、その開示全体を本明細書に引用により援用する。
本明細書は、概して、拡張現実および/または仮想現実環境において、メモを取るための面をジェスチャーによって生成することに関する。
拡張現実(AR)および/または仮想現実(VR)システムは、没入型の3次元(3D)仮想環境を生成し得る。ユーザは、この仮想環境におけるオブジェクトと、さまざまな電子デバイスを用いてやり取りすることができる。電子デバイスは、たとえば、ディスプレイとユーザがディスプレイ装置を見るときに使用する眼鏡もしくはゴーグルとを含むヘルメットまたはその他のヘッドマウントデバイス、コントローラやジョイスティックなどの1つ以上のハンドヘルド電子デバイス、センサを備えた手袋、キーボード、マウス、およびその他の電子デバイスなどである。
ある局面において、方法は、ヘッドマウントディスプレイ(HMD)デバイスのディスプレイに仮想環境を表示するステップと、HMDの外部におけるジェスチャー入力を検出するステップと、ジェスチャー入力の検出に応じて仮想注記面を生成するステップと、仮想環境における仮想オブジェクトとして仮想注記面を表示するステップと、HMDの外部における別のジェスチャー入力を検出するステップと、検出したジェスチャー入力に基づいて仮想注記面に注釈を与えるステップと、注釈を与えた仮想注記面を仮想環境における仮想オブジェクトとして表示するステップとを含む。
たとえばヘッドマウントディスプレイ(HMD)デバイスを装着して拡張および/または仮想現実環境に没入しているユーザは、仮想環境を探検し、さまざまな異なるタイプの入力を通じて仮想環境とのやり取りを行うことができる。これらの入力は、たとえば、HMDとは別の1つ以上の電子デバイスの操作、および/またはHMD自体の操作、および/または手/腕のジェスチャー、目/頭部による注視などを含み得る。上記HMDとは別の1つ以上の電子デバイスの操作は、たとえば、1つ以上の電子デバイスに対する入力、1つ以上の電子デバイスを動かすこと、および/または1つ以上の電子デバイスの位置を変更することを含み得る。いくつかの実装例において、電子デバイスに対する入力は、上記電子デバイスの入力装置またはユーザインターフェイスを介して行うことができる。上記HMDの操作は、たとえば、HMDの対応する入力装置またはインターフェイスを介して行うことができる、HMDに入力を与えることを含み得る。ユーザは、各種電子デバイスを、HMDとは別にまたはHMDとともに操作することにより、仮想環境において所望のアクションを生じさせることができる。ユーザは、仮想環境に没入している間に、たとえば、スケッチ、図形、またはその他の種類の表記の形態で、情報を記録しなければならない場合がある。この情報の記録は、現実世界においてはペン、紙、ホワイトボードなどを用いて実現されるであろう。仮想環境から出ることなく多種多様な情報の視覚的表現を同様のやり方で記録できることにより、ユーザの仮想体験を高度なものにすることが可能である。情報、たとえば2次元のスケッチおよびその他の種類の情報などを仮想面上で捕捉できることにより、仮想環境内の複数のユーザの間での共同作業を容易にすることが可能であり、そうすると仮想環境におけるユーザの体験はさらに高度なものになる。
例1:ヘッドマウントディスプレイ(HMD)デバイスのディスプレイに仮想環境を表示するステップと、上記HMDの外部における第1のジェスチャー入力を検出するステップと、上記第1のジェスチャー入力の検出に応じて、仮想注記面を生成するステップと、上記HMDの外部における第2のジェスチャー入力を検出するステップと、上記第2のジェスチャー入力の検出に応じて、上記仮想環境における仮想オブジェクトとして上記仮想注記面を表示するステップと、上記HMDの外部における第3のジェスチャー入力を検出するステップと、上記第3のジェスチャー入力の検出に応じて、上記仮想注記面に注釈を与えるステップと、上記注釈が与えられた仮想注記面を、上記仮想環境における仮想オブジェクトとして表示するステップとを含む、方法。
Claims (19)
- ヘッドマウントディスプレイ(HMD)デバイスのディスプレイに仮想環境を表示するステップと、
前記HMDの外部における第1のジェスチャー入力を、第1のハンドヘルド電子デバイスの検出された第1の位置と、第2のハンドヘルド電子デバイスの検出された第1の位置とに基づいて、検出するステップと、
前記第1のジェスチャー入力の検出に応じて、仮想注記面を生成するステップと、
前記HMDの外部における第2のジェスチャー入力を、前記第1のハンドヘルド電子デバイスの検出された第2の位置と、前記第2のハンドヘルド電子デバイスの検出された第2の位置とに基づいて、検出するステップと、
前記第2のジェスチャー入力の検出に応じて、前記仮想環境における第1の仮想オブジェクトとして前記仮想注記面を表示するステップと、
前記第1のハンドヘルド電子デバイスまたは前記第2のハンドヘルド電子デバイスのうちの少なくとも一方の操作デバイスの作動の解除を検出するステップと、
前記検出した操作デバイスの作動の解除に応じて、前記仮想注記面の大きさまたは形状のうちの少なくとも一方を設定するステップと、
前記仮想環境における第2の仮想オブジェクトとして前記仮想注記面を表示するステップとを含む、方法。 - 前記第1のハンドヘルド電子デバイスは前記HMDに作動的に結合されており、前記第2のハンドヘルド電子デバイスは前記HMDに作動的に結合されている、請求項1に記載の方法。
- 前記仮想注記面の大きさまたは形状のうちの少なくとも一方を設定するステップは、前記第1のハンドヘルド電子デバイスの検出された第1の位置に対する前記第1のハンドヘルド電子デバイスの検出された第2の位置と、前記第2のハンドヘルド電子デバイスの検出された第1の位置に対する前記第2のハンドヘルド電子デバイスの検出された第2の位置とに基づいて、前記仮想注記面の大きさまたは形状のうちの少なくとも一方を設定するステップを含む、請求項1または2に記載の方法。
- 前記仮想注記面の大きさまたは形状のうちの少なくとも一方を設定するステップは、前記操作デバイスの作動の解除の検出と、前記操作デバイスの作動の解除の検出に対応する時点で検出された、前記第1のハンドヘルド電子デバイスの第2の位置および前記第2のハンドヘルド電子デバイスの第2の位置の検出に応じて、前記仮想注記面の大きさまたは形状のうちの少なくとも一方を設定するステップをさらに含む、請求項3に記載の方法。
- 前記HMDの外部における第3のジェスチャー入力を検出するステップと、
前記第3のジェスチャー入力の検出に応じて、前記仮想注記面に注釈を与えるステップとをさらに含み、前記注釈を与えるステップは、
マーキング手段の移動を検出し追跡するステップと、
前記検出したマーキング手段の移動に基づいて前記仮想注記面に注釈を与えるステップとを含み、前記方法はさらに、
前記仮想環境における前記第2の仮想オブジェクトとして、前記注釈が与えられた仮想注記面を表示するステップを含む、請求項1から4のいずれか1項に記載の方法。 - 前記検出したマーキング手段の移動に基づいて前記仮想注記面に注釈を与えるステップは、
前記マーキング手段の操作デバイスの作動を検出するステップと、
前記検出した操作デバイスの作動に応じて、前記マーキング手段の移動の追跡を開始するステップと、
前記操作デバイスの作動の解除を検出するステップと、
前記検出した操作デバイスの解除に応じて、前記マーキング手段の移動の追跡を終了するステップとを含む、請求項5に記載の方法。 - 前記検出したマーキング手段の移動に基づいて前記仮想注記面に注釈を与えるステップは、
前記追跡したマーキング手段の移動に対応する輪郭を検出するステップと、
前記検出したマーキング手段の移動の輪郭に対応する輪郭を用いて前記仮想注記面に注釈を与えるステップとをさらに含む、請求項5または6に記載の方法。 - システムであって、
仮想現実環境を生成するように構成されたコンピューティングデバイスを備え、前記コンピューティングデバイスは、
実行可能な命令を格納するメモリと、
プロセッサとを含み、前記プロセッサは、前記命令を実行することにより、前記コンピューティングデバイスに、
ヘッドマウントディスプレイ(HMD)デバイスのディスプレイに仮想環境を表示することと、
前記HMDの外部における第1のジェスチャー入力を、第1のハンドヘルド電子デバイスの検出された第1の位置と、第2のハンドヘルド電子デバイスの検出された第1の位置とに基づいて、検出することと、
前記第1のジェスチャー入力の検出に応じて、仮想注記面を生成することと、
前記HMDの外部における第2のジェスチャー入力を、前記第1のハンドヘルド電子デバイスの検出された第2の位置と、前記第2のハンドヘルド電子デバイスの検出された第2の位置とに基づいて、検出することと、
前記第2のジェスチャー入力の検出に応じて、前記仮想環境における第1の仮想オブジェクトとして前記仮想注記面を表示することと、
前記第1のハンドヘルド電子デバイスまたは前記第2のハンドヘルド電子デバイスのうちの少なくとも一方の操作デバイスの作動の解除を検出することと、
前記検出した操作デバイスの作動の解除に応じて、前記仮想注記面の大きさまたは形状のうちの少なくとも一方を設定することと、
前記仮想環境における第2の仮想オブジェクトとして前記仮想注記面を表示することとを実行させるように構成されている、システム。 - 前記第1のハンドヘルド電子デバイスは前記HMDに作動的に結合されており、前記第2のハンドヘルド電子デバイスは前記HMDに作動的に結合されている、請求項8に記載のシステム。
- 前記仮想注記面の大きさまたは形状のうちの少なくとも一方の設定において、前記命令は、前記コンピューティングデバイスに、
前記第1のハンドヘルド電子デバイスの検出された第1の位置に対する前記第1のハンドヘルド電子デバイスの検出された第2の位置と、前記第2のハンドヘルド電子デバイスの検出された第1の位置に対する前記第2のハンドヘルド電子デバイスの検出された第2の位置とに基づいて、前記仮想注記面の大きさまたは形状のうちの少なくとも一方を設定することを実行させる、請求項8または9に記載のシステム。 - 前記仮想注記面の大きさまたは形状のうちの少なくとも一方の設定において、前記命令は、前記コンピューティングデバイスに、
前記操作デバイスの作動の解除の検出と、前記操作デバイスの作動の解除の検出に対応する時点で検出された、前記第1のハンドヘルド電子デバイスの第2の位置および前記第2のハンドヘルド電子デバイスの第2の位置の検出に応じて、前記仮想注記面の大きさまたは形状のうちの少なくとも一方を設定することを実行させる、請求項10に記載のシステム。 - 前記命令は、前記コンピューティングデバイスに、
前記HMDの外部における第3のジェスチャー入力を検出することと、
前記第3のジェスチャー入力の検出に応じて、前記仮想注記面に注釈を与えることとを実行させ、前記注釈を与えることは、
マーキング手段の移動を検出し追跡することと、
前記検出したマーキング手段の移動に基づいて前記仮想注記面に注釈を与えることとを含み、
前記命令は、前記コンピューティングデバイスに、
前記仮想環境における前記第2の仮想オブジェクトとして、前記注釈が与えられた仮想注記面を表示することを実行させる、請求項8から11のいずれか1項に記載のシステム。 - 前記検出したマーキング手段の移動に基づいて前記仮想注記面に注釈を与えることにおいて、前記命令は、前記コンピューティングデバイスに、
前記マーキング手段の操作デバイスの作動を検出することと、
前記検出した操作デバイスの作動に応じて、前記マーキング手段の移動の追跡を開始することと、
前記操作デバイスの作動の解除を検出することと、
前記検出した操作デバイスの解除に応じて、前記マーキング手段の移動の追跡を終了することとを実行させる、請求項12に記載のシステム。 - 前記検出したマーキング手段の移動に基づいて前記仮想注記面に注釈を与えることにおいて、前記命令は、前記コンピューティングデバイスに、
前記追跡したマーキング手段の移動に対応する輪郭を検出することと、
前記検出したマーキング手段の移動の輪郭に対応する輪郭を用いて前記仮想注記面に注釈を与えることとを実行させる、請求項12または13に記載のシステム。 - コンピュータ読取可能プログラムであって、前記コンピュータ読取可能プログラムは命令のシーケンスを有し、前記命令のシーケンスは、プロセッサによって実行されると前記プロセッサに方法を実行させ、前記方法は、
ヘッドマウントディスプレイ(HMD)デバイスのディスプレイに仮想環境を表示するステップと、
前記HMDの外部における第1のジェスチャー入力を、第1のハンドヘルド電子デバイスの検出された第1の位置と、第2のハンドヘルド電子デバイスの検出された第1の位置とに基づいて、検出するステップと、
前記第1のジェスチャー入力の検出に応じて、仮想注記面を生成するステップと、
前記HMDの外部における第2のジェスチャー入力を、前記第1のハンドヘルド電子デバイスの検出された第2の位置と、前記第2のハンドヘルド電子デバイスの検出された第2の位置とに基づいて、検出するステップと、
前記第2のジェスチャー入力の検出に応じて、前記仮想環境における第1の仮想オブジェクトとして前記仮想注記面を表示するステップと、
前記第1のハンドヘルド電子デバイスまたは前記第2のハンドヘルド電子デバイスのうちの少なくとも一方の操作デバイスの作動の解除を検出するステップと、
前記検出した操作デバイスの作動の解除に応じて、前記仮想注記面の大きさまたは形状のうちの少なくとも一方を設定するステップと、
前記仮想環境における第2の仮想オブジェクトとして前記仮想注記面を表示するステップとを含む、コンピュータ読取可能プログラム。 - 前記第1のジェスチャー入力を検出するステップは、
前記第1のハンドヘルド電子デバイスまたは前記第2のハンドヘルド電子デバイスのうちの少なくとも一方の操作デバイスの第1の作動を検出するステップと、
前記第1のハンドヘルド電子デバイスの検出された第1の位置と、前記第2のハンドヘルド電子デバイスの検出された第1の位置と、前記検出した操作デバイスの第1の作動とに基づいて、前記第1のジェスチャー入力を検出するステップとをさらに含む、請求項15に記載のコンピュータ読取可能プログラム。 - 前記第2のジェスチャー入力を検出するステップは、
前記第1のジェスチャー入力の検出後に、
前記操作デバイスの第1の作動の解除を検出するステップと、
前記操作デバイスの第1の作動の解除が検出された時点における前記第1のハンドヘルド電子デバイスの第2の位置を検出するステップと、
前記操作デバイスの第1の作動の解除が検出された時点における前記第2のハンドヘルド電子デバイスの第2の位置を検出するステップと、
前記検出した第1のハンドヘルド電子デバイスの第1の位置に対する前記検出した第1のハンドヘルド電子デバイスの第2の位置と、前記検出した第2のハンドヘルド電子デバイスの第1の位置に対する前記検出した第2のハンドヘルド電子デバイスの第2の位置とに基づいて、前記仮想注記面の大きさまたは形状のうちの少なくとも一方を設定するステップとを含む、請求項16に記載のコンピュータ読取可能プログラム。 - 前記HMDの外部における第3のジェスチャー入力を検出するステップと、
前記第3のジェスチャー入力の検出に応じて、前記仮想注記面に注釈を与えるステップとをさらに含み、前記注釈を与えるステップは、
前記操作デバイスの第2の作動を検出するステップと、
前記検出した操作デバイスの第2の作動に応じて、前記第1のハンドヘルド電子デバイスまたは前記第2のハンドヘルド電子デバイスのうちの少なくとも一方の移動を追跡するステップと、
前記操作デバイスの第2の作動の解除を検出するステップと、
前記検出した操作デバイスの第2の作動の解除に応じて、前記第1のハンドヘルド電子デバイスまたは前記第2のハンドヘルド電子デバイスのうちの少なくとも一方の移動の追跡を終了するステップとを含み、さらに、
前記操作デバイスの第2の作動の検出と前記操作デバイスの第2の作動の解除の検出との間において追跡した、前記第1のハンドヘルド電子デバイスまたは前記第2のハンドヘルド電子デバイスのうちの少なくとも一方の移動に対応する輪郭を用いて、前記仮想注記面に注釈を与えるステップを含む、請求項17に記載のコンピュータ読取可能プログラム。 - 請求項1から7のいずれか1項に記載の方法をコンピュータに実行させるためのプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/369,620 | 2016-12-05 | ||
US15/369,620 US10147243B2 (en) | 2016-12-05 | 2016-12-05 | Generating virtual notation surfaces with gestures in an augmented and/or virtual reality environment |
PCT/US2017/048962 WO2018106299A1 (en) | 2016-12-05 | 2017-08-28 | Generating virtual notation surfaces with gestures in an augmented and/or virtual reality environment |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6633256B1 true JP6633256B1 (ja) | 2020-01-22 |
JP2020513625A JP2020513625A (ja) | 2020-05-14 |
Family
ID=59846654
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019529992A Active JP6633256B1 (ja) | 2016-12-05 | 2017-08-28 | 拡張現実および/または仮想現実環境におけるジェスチャーによる仮想注記面の生成 |
Country Status (7)
Country | Link |
---|---|
US (2) | US10147243B2 (ja) |
EP (2) | EP3548989B1 (ja) |
JP (1) | JP6633256B1 (ja) |
KR (1) | KR102390425B1 (ja) |
CN (1) | CN109891367B (ja) |
DE (1) | DE202017105262U1 (ja) |
WO (1) | WO2018106299A1 (ja) |
Families Citing this family (59)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2554914B (en) * | 2016-10-14 | 2022-07-20 | Vr Chitect Ltd | Virtual reality system and method |
US10514769B2 (en) * | 2016-10-16 | 2019-12-24 | Dell Products, L.P. | Volumetric tracking for orthogonal displays in an electronic collaboration setting |
US10242503B2 (en) | 2017-01-09 | 2019-03-26 | Snap Inc. | Surface aware lens |
CN108459782A (zh) * | 2017-02-17 | 2018-08-28 | 阿里巴巴集团控股有限公司 | 一种输入方法、装置、设备、系统和计算机存储介质 |
US10564800B2 (en) * | 2017-02-23 | 2020-02-18 | Spatialand Inc. | Method and apparatus for tool selection and operation in a computer-generated environment |
US10639510B2 (en) * | 2017-03-20 | 2020-05-05 | The Trustees Of Columbia University In The City Of New York | Human musculoskeletal support and training system methods and devices |
EP3605300A4 (en) * | 2017-03-22 | 2020-02-26 | Sony Corporation | IMAGE PROCESSING DEVICE AND METHOD AND PROGRAM |
US11308670B2 (en) * | 2017-03-22 | 2022-04-19 | Sony Corporation | Image processing apparatus and method |
US11054894B2 (en) | 2017-05-05 | 2021-07-06 | Microsoft Technology Licensing, Llc | Integrated mixed-input system |
TWI646449B (zh) * | 2017-05-12 | 2019-01-01 | 華碩電腦股份有限公司 | 三維定位系統與方法 |
US10755480B2 (en) * | 2017-05-19 | 2020-08-25 | Ptc Inc. | Displaying content in an augmented reality system |
WO2018232742A1 (en) * | 2017-06-23 | 2018-12-27 | Tencent Technology (Shenzhen) Company Limited | METHOD AND DEVICE FOR POINTING AN OBJECT IN A VIRTUAL REALITY (VR) SCENE, AND VR APPARATUS |
US10895966B2 (en) | 2017-06-30 | 2021-01-19 | Microsoft Technology Licensing, Llc | Selection using a multi-device mixed interactivity system |
US11023109B2 (en) * | 2017-06-30 | 2021-06-01 | Microsoft Techniogy Licensing, LLC | Annotation using a multi-device mixed interactivity system |
US10937215B1 (en) * | 2017-09-29 | 2021-03-02 | Apple Inc. | Techniques for enabling drawing in a computer-generated reality environment |
US10747302B2 (en) * | 2018-06-08 | 2020-08-18 | Facebook Technologies, Llc | Artificial reality interaction plane |
US11087538B2 (en) | 2018-06-26 | 2021-08-10 | Lenovo (Singapore) Pte. Ltd. | Presentation of augmented reality images at display locations that do not obstruct user's view |
JP7499749B2 (ja) | 2018-07-24 | 2024-06-14 | マジック リープ, インコーポレイテッド | アプリケーション共有 |
US11393170B2 (en) * | 2018-08-21 | 2022-07-19 | Lenovo (Singapore) Pte. Ltd. | Presentation of content based on attention center of user |
US10991139B2 (en) | 2018-08-30 | 2021-04-27 | Lenovo (Singapore) Pte. Ltd. | Presentation of graphical object(s) on display to avoid overlay on another item |
US11036284B2 (en) * | 2018-09-14 | 2021-06-15 | Apple Inc. | Tracking and drift correction |
US11176737B2 (en) | 2018-11-27 | 2021-11-16 | Snap Inc. | Textured mesh building |
US10942633B2 (en) * | 2018-12-20 | 2021-03-09 | Microsoft Technology Licensing, Llc | Interactive viewing and editing system |
US10963140B2 (en) * | 2019-04-12 | 2021-03-30 | John William Marr | Augmented reality experience creation via tapping virtual surfaces in augmented reality |
US11144760B2 (en) | 2019-06-21 | 2021-10-12 | International Business Machines Corporation | Augmented reality tagging of non-smart items |
US11189098B2 (en) * | 2019-06-28 | 2021-11-30 | Snap Inc. | 3D object camera customization system |
US11023035B1 (en) | 2019-07-09 | 2021-06-01 | Facebook Technologies, Llc | Virtual pinboard interaction using a peripheral device in artificial reality environments |
CN114072750A (zh) * | 2019-07-09 | 2022-02-18 | 麦克赛尔株式会社 | 头戴式显示器系统以及该头戴式显示器系统所使用的头戴式显示器及其操作方法 |
US11023036B1 (en) * | 2019-07-09 | 2021-06-01 | Facebook Technologies, Llc | Virtual drawing surface interaction using a peripheral device in artificial reality environments |
US10976804B1 (en) * | 2019-07-09 | 2021-04-13 | Facebook Technologies, Llc | Pointer-based interaction with a virtual surface using a peripheral device in artificial reality environments |
US11244516B2 (en) | 2019-09-16 | 2022-02-08 | Magic Leap, Inc. | Object interactivity in virtual space |
US11030820B1 (en) * | 2019-12-05 | 2021-06-08 | Facebook Technologies, Llc | Systems and methods for surface detection |
US11335070B2 (en) | 2020-02-10 | 2022-05-17 | Magic Leap, Inc. | Dynamic colocation of virtual content |
EP4104002A4 (en) * | 2020-02-14 | 2023-08-09 | Magic Leap, Inc. | 3D OBJECT ANNOTATION |
JP7539478B2 (ja) | 2020-02-14 | 2024-08-23 | マジック リープ, インコーポレイテッド | セッションマネージャ |
CN118276683A (zh) | 2020-02-14 | 2024-07-02 | 奇跃公司 | 工具桥 |
CN115315677A (zh) * | 2020-03-26 | 2022-11-08 | 索尼集团公司 | 信息处理装置、信息处理方法和信息处理程序 |
WO2021236170A1 (en) * | 2020-05-18 | 2021-11-25 | Google Llc | Low-power semi-passive relative six-degree-of-freedom tracking |
KR20220010356A (ko) | 2020-07-17 | 2022-01-25 | 주식회사 버넥트 | 증강현실 콘텐츠 기반 작업관리 시스템 및 방법 |
US11694413B2 (en) * | 2020-08-25 | 2023-07-04 | Spatial Systems Inc. | Image editing and sharing in an augmented reality system |
US20220083307A1 (en) * | 2020-09-16 | 2022-03-17 | Meta View, Inc. | Augmented reality collaboration system with annotation capability |
US11875088B2 (en) * | 2020-11-24 | 2024-01-16 | Unity Technologies ApS | Systems and methods for smart volumetric layouts |
US11631228B2 (en) | 2020-12-04 | 2023-04-18 | Vr-Edu, Inc | Virtual information board for collaborative information sharing |
US11327630B1 (en) * | 2021-02-04 | 2022-05-10 | Huawei Technologies Co., Ltd. | Devices, methods, systems, and media for selecting virtual objects for extended reality interaction |
JP2022122479A (ja) * | 2021-02-10 | 2022-08-23 | キヤノン株式会社 | 撮像システム、表示装置、撮像装置、および撮像システムの制御方法 |
WO2022216082A1 (ko) * | 2021-04-07 | 2022-10-13 | 한국과학기술원 | 가상 공간 내 메모 객체를 제어하는 전자 시스템 및 그 동작 방법 |
US11687221B2 (en) * | 2021-08-27 | 2023-06-27 | International Business Machines Corporation | Augmented reality based user interface configuration of mobile and wearable computing devices |
CN113706679A (zh) * | 2021-08-31 | 2021-11-26 | 南京大学 | 一种在ar场景中进行3d草图绘制的方法和装置 |
KR102664782B1 (ko) * | 2021-10-06 | 2024-05-10 | 한국과학기술원 | 가상 현실 공간에 대한 제어를 수행하는 전자 시스템, 전자 장치 및 그 동작 방법 |
WO2023058819A1 (ko) * | 2021-10-06 | 2023-04-13 | 한국과학기술원 | 가상 현실 공간에 대한 제어를 수행하는 전자 시스템, 전자 장치 및 그 동작 방법 |
US12093462B2 (en) | 2022-04-11 | 2024-09-17 | Meta Platforms Technologies, Llc | Virtual keyboard selections using multiple input modalities |
US12026325B2 (en) | 2022-08-17 | 2024-07-02 | Apple Inc. | Handheld input devices with sleeves |
US20240070243A1 (en) * | 2022-08-31 | 2024-02-29 | Youjean Cho | Authenticating a selective collaborative object |
US12019773B2 (en) | 2022-08-31 | 2024-06-25 | Snap Inc. | Timelapse of generating a collaborative object |
US12079395B2 (en) | 2022-08-31 | 2024-09-03 | Snap Inc. | Scissor hand gesture for a collaborative object |
US20240070300A1 (en) * | 2022-08-31 | 2024-02-29 | Youjean Cho | Selective collaborative object access based on timestamp |
WO2024075565A1 (ja) * | 2022-10-04 | 2024-04-11 | ソニーグループ株式会社 | 表示制御装置および表示制御方法 |
CN116382613A (zh) * | 2023-06-05 | 2023-07-04 | 江西格如灵科技股份有限公司 | 虚拟现实环境下的白板同步方法、装置、设备及介质 |
US12079903B1 (en) * | 2023-06-26 | 2024-09-03 | Google Llc | Real screens in extended reality |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8745541B2 (en) * | 2003-03-25 | 2014-06-03 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
US20110199342A1 (en) | 2010-02-16 | 2011-08-18 | Harry Vartanian | Apparatus and method for providing elevated, indented or texturized sensations to an object near a display device or input detection using ultrasound |
US10217264B2 (en) * | 2010-06-01 | 2019-02-26 | Vladimir Vaganov | 3D digital painting |
KR101591579B1 (ko) * | 2011-03-29 | 2016-02-18 | 퀄컴 인코포레이티드 | 증강 현실 시스템들에서 실세계 표면들에의 가상 이미지들의 앵커링 |
US8881051B2 (en) | 2011-07-05 | 2014-11-04 | Primesense Ltd | Zoom-based gesture user interface |
JP6124517B2 (ja) * | 2012-06-01 | 2017-05-10 | 任天堂株式会社 | 情報処理プログラム、情報処理装置、情報処理システム、およびパノラマ動画表示方法 |
US20140006994A1 (en) * | 2012-06-29 | 2014-01-02 | Apple Inc. | Device, Method, and Graphical User Interface for Displaying a Virtual Keyboard |
US9552673B2 (en) * | 2012-10-17 | 2017-01-24 | Microsoft Technology Licensing, Llc | Grasping virtual objects in augmented reality |
US10185416B2 (en) * | 2012-11-20 | 2019-01-22 | Samsung Electronics Co., Ltd. | User gesture input to wearable electronic device involving movement of device |
WO2015102527A1 (en) * | 2014-01-05 | 2015-07-09 | Yousefi Shahrouz | Real-time 3d gesture recognition and tracking system for mobile devices |
US9649558B2 (en) * | 2014-03-14 | 2017-05-16 | Sony Interactive Entertainment Inc. | Gaming device with rotatably placed cameras |
KR20150110257A (ko) * | 2014-03-21 | 2015-10-02 | 삼성전자주식회사 | 웨어러블 디바이스에서 가상의 입력 인터페이스를 제공하는 방법 및 이를 위한 웨어러블 디바이스 |
EP2946266B1 (en) | 2014-03-21 | 2023-06-21 | Samsung Electronics Co., Ltd. | Method and wearable device for providing a virtual input interface |
US20160112479A1 (en) * | 2014-10-16 | 2016-04-21 | Wipro Limited | System and method for distributed augmented reality |
CN105892890A (zh) * | 2014-11-30 | 2016-08-24 | 黄石木信息科技有限公司 | 一种全景互动移动终端展示系统及方法 |
US9851091B2 (en) * | 2015-02-18 | 2017-12-26 | Lg Electronics Inc. | Head mounted display |
EP3281403A4 (en) * | 2015-04-06 | 2018-03-07 | Scope Technologies US Inc. | Methods and apparatus for augmented reality applications |
US10055888B2 (en) | 2015-04-28 | 2018-08-21 | Microsoft Technology Licensing, Llc | Producing and consuming metadata within multi-dimensional data |
US9898865B2 (en) * | 2015-06-22 | 2018-02-20 | Microsoft Technology Licensing, Llc | System and method for spawning drawing surfaces |
CN105138135B (zh) * | 2015-09-15 | 2018-08-28 | 北京国承万通信息科技有限公司 | 头戴式虚拟现实设备及虚拟现实系统 |
US10067636B2 (en) * | 2016-02-09 | 2018-09-04 | Unity IPR ApS | Systems and methods for a virtual reality editor |
-
2016
- 2016-12-05 US US15/369,620 patent/US10147243B2/en active Active
-
2017
- 2017-08-28 WO PCT/US2017/048962 patent/WO2018106299A1/en active Application Filing
- 2017-08-28 JP JP2019529992A patent/JP6633256B1/ja active Active
- 2017-08-28 CN CN201780066693.6A patent/CN109891367B/zh active Active
- 2017-08-28 KR KR1020197016140A patent/KR102390425B1/ko active IP Right Grant
- 2017-08-28 EP EP17764954.8A patent/EP3548989B1/en active Active
- 2017-08-28 EP EP20204886.4A patent/EP3792733B1/en active Active
- 2017-08-31 DE DE202017105262.1U patent/DE202017105262U1/de active Active
-
2018
- 2018-09-07 US US16/124,536 patent/US10339723B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
WO2018106299A1 (en) | 2018-06-14 |
US10147243B2 (en) | 2018-12-04 |
US20180158250A1 (en) | 2018-06-07 |
EP3792733A1 (en) | 2021-03-17 |
US10339723B2 (en) | 2019-07-02 |
CN109891367B (zh) | 2022-03-29 |
DE202017105262U1 (de) | 2018-03-27 |
US20190019348A1 (en) | 2019-01-17 |
CN109891367A (zh) | 2019-06-14 |
EP3792733B1 (en) | 2024-08-21 |
EP3548989B1 (en) | 2020-12-23 |
EP3548989A1 (en) | 2019-10-09 |
KR102390425B1 (ko) | 2022-04-25 |
JP2020513625A (ja) | 2020-05-14 |
KR20190076034A (ko) | 2019-07-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6633256B1 (ja) | 拡張現実および/または仮想現実環境におけるジェスチャーによる仮想注記面の生成 | |
US11181986B2 (en) | Context-sensitive hand interaction | |
US10545584B2 (en) | Virtual/augmented reality input device | |
US10509487B2 (en) | Combining gyromouse input and touch input for navigation in an augmented and/or virtual reality environment | |
EP3548988B1 (en) | Switching of active objects in an augmented and/or virtual reality environment | |
KR102245245B1 (ko) | 증강된 그리고/또는 가상의 현실 환경에서 6 자유도 제어기들을 이용한 가상 객체들의 조작 | |
US10748342B2 (en) | Interaction system for augmented reality objects | |
US10359863B2 (en) | Dragging virtual elements of an augmented and/or virtual reality environment | |
KR102338835B1 (ko) | 증강 및/또는 가상 현실 환경에서의 세션 종료 검출 | |
JP2018526693A (ja) | 仮想現実における注視対話のためのホバー挙動 | |
US10649616B2 (en) | Volumetric multi-selection interface for selecting multiple objects in 3D space | |
JP2019530064A (ja) | 仮想現実におけるロケーショングローブ | |
US10976890B2 (en) | Intelligent command batching in an augmented and/or virtual reality environment | |
JP2024529848A (ja) | オブジェクトの動作モダリティを動的に選択するための方法及びデバイス | |
JP2024533952A (ja) | 物理オブジェクトとのユーザインタフェースに向けられた対話を管理するための方法及びデバイス |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190716 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190716 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20190716 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20191004 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191119 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191211 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6633256 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |