JP2020500356A - 仮想コントローラのための機能割当て - Google Patents
仮想コントローラのための機能割当て Download PDFInfo
- Publication number
- JP2020500356A JP2020500356A JP2019520892A JP2019520892A JP2020500356A JP 2020500356 A JP2020500356 A JP 2020500356A JP 2019520892 A JP2019520892 A JP 2019520892A JP 2019520892 A JP2019520892 A JP 2019520892A JP 2020500356 A JP2020500356 A JP 2020500356A
- Authority
- JP
- Japan
- Prior art keywords
- controller
- virtual
- function
- physical
- virtual controller
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims abstract description 56
- 238000001514 detection method Methods 0.000 claims abstract description 17
- 230000004044 response Effects 0.000 claims abstract description 17
- 238000004590 computer program Methods 0.000 claims description 16
- 230000006870 function Effects 0.000 description 133
- 230000015654 memory Effects 0.000 description 35
- 238000010586 diagram Methods 0.000 description 20
- 238000004891 communication Methods 0.000 description 18
- 230000033001 locomotion Effects 0.000 description 15
- 238000010422 painting Methods 0.000 description 8
- 230000003993 interaction Effects 0.000 description 5
- 239000003973 paint Substances 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 240000007320 Pinus strobus Species 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 210000004247 hand Anatomy 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 210000003811 finger Anatomy 0.000 description 1
- 210000005224 forefinger Anatomy 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 210000004932 little finger Anatomy 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 230000004382 visual function Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/038—Indexing scheme relating to G06F3/038
- G06F2203/0382—Plural input, i.e. interface arrangements in which a plurality of input device of the same type are in communication with a PC
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
本特許出願は、2017年1月19日に出願された「仮想コントローラのための機能割当て」と題された米国仮特許出願第62/448,172号の優先権を主張する、2017年10月26日に出願された「仮想コントローラのための機能割当て」と題された米国特許出願第15/794,265号の継続出願であって、その優先権を主張するものであり、その開示が本明細書に引用により援用される。
本特許明細書は一般に、1つ以上の仮想コントローラのための機能割当てに関する。
仮想現実(VR)プログラムの中には、ユーザが操作してVRプログラムのアスペクトを制御可能な1つ以上の物理的なコントローラを使用するものがある。異なる機能をコントローラに割当てることができ、これによって、ユーザは、左右の手をそれぞれ用いて異なるタスクを実行できる。しかしながら、ユーザは、システムが割当てた手と反対側の手を使用したい場合がある。とりわけ、設定が変更可能になるまではユーザは「誤った」手を用いてプログラムと相互作用しなければならない場合、このような変更を行うためには、ユーザは、煩雑なことがあるVRプログラムの設定メニューを検索する必要がある。ユーザの好みにかかわらず、物理的に同一のコントローラを使用して起動時に機能を割り当て可能なシステムもあれば、左手または右手用の物理的に異なるコントローラを有し、ユーザが物理的なコントローラを切替えることによって再割当てを行うことが困難、または不可能なシステムもある。
第1の態様では、方法は:コンピュータシステムにおいて、仮想コントローラを物理的なコントローラと対応付けることと;第1の機能を仮想コントローラに割当てて、物理的なコントローラを用いて第1の機能の性能を提供することと;物理的なコントローラを用いて行われたジェスチャを検出することと;ジェスチャの検出に応じて、仮想コントローラから第1の機能の割当てを解除する、または、第2の機能を仮想コントローラに割当てることとを備える。
仮想コントローラが第1の仮想コントローラとして定義され、物理的なコントローラが第1の物理的なコントローラとして定義される場合、方法は、コンピュータシステムにおける第2の仮想コントローラを第2の物理的なコントローラと対応付けることと、第2の機能を第2の仮想コントローラに割当てることとを備え得る。ジェスチャの検出に応じて、第1の機能は第1の仮想コントローラからの割当てを解除され第2の仮想コントローラに割当てられ得、第2の機能は第2の仮想コントローラからの割当てを解除され第1の仮想コントローラに割当てられ得る。
詳細な説明
本特許明細書は、仮想コントローラのための機能割当ての例について説明する。従来、仮想現実(VR)アプリケーションを使用している、または使用しようとしている人は、VRシステムの2つ以上の物理的なコントローラ間で、少なくとも1つの機能の再割当てまたは再対応付けが可能である。いくつかの実施形態では、人は、あらかじめ定義されたジェスチャを実行して、再割当てまたは再対応付けを開始可能である。たとえば、人は、物理的なコントローラのそれぞれの端部を互いに近づけ、その後互いに遠ざけて、1つ(または複数)の機能を再割当てしなければならないという意図の信号を送ることができる。これは、たとえばメニューシステムを検索するよりも、コントローラ間でVR機能の再割当てを行うより簡単で、より早く、および/または、より直感的な方法であり得る。
Claims (21)
- コンピュータシステムにおいて、仮想コントローラを物理的なコントローラと対応付けることと、
第1の機能を前記仮想コントローラに割当てて、前記物理的なコントローラを用いて前記第1の機能の性能を提供することと、
前記物理的なコントローラを用いて行われたジェスチャを検出することと、
前記ジェスチャの検出に応じて、前記仮想コントローラから前記第1の機能の割当てを解除する、および/または、第2の機能を前記仮想コントローラに割当てることとを備える、方法。 - 前記仮想コントローラは第1の仮想コントローラであり、前記物理的なコントローラは第1の物理的なコントローラであり、前記方法はさらに、
前記コンピュータシステムにおける第2の仮想コントローラを第2の物理的なコントローラと対応付けることと、
前記第2の機能を前記第2の仮想コントローラに割当てることとを備える、請求項1に記載の方法。 - 前記ジェスチャの検出に応じて、前記第1の機能は前記第1の仮想コントローラからの割当てを解除され、前記第1の機能は前記第2の仮想コントローラに割当てられ、前記第2の機能は前記第2の仮想コントローラからの割当てを解除され、前記第2の機能は前記第1の仮想コントローラに割当てられる、請求項2に記載の方法。
- 前記第1の機能は仮想ペインティングプログラムにおいてブラシ機能を含み、前記第2の機能は前記仮想ペインティングプログラムにおいてパレット機能を含み、前記ジェスチャの検出は前記仮想ペインティングプログラムにおいて前記ブラシ機能および前記パレット機能のスワッピングを引き起こす、請求項3に記載の方法。
- 前記ジェスチャは前記第1および第2の物理的なコントローラを用いてなされる、請求項2〜4のいずれか1項に記載の方法。
- 前記ジェスチャは、前記第1および第2の物理的なコントローラが互いに近づけられその後互いに遠ざけられることを含む、請求項5に記載の方法。
- 前記ジェスチャは、前記第1および第2の物理的なコントローラのそれぞれの端部が互いに近づけられその後互いに遠ざけられることを含む、請求項5に記載の方法。
- 前記第1および第2の物理的なコントローラの前記それぞれの端部は、前記第1および第2の物理的なコントローラの底端部である、請求項7に記載の方法。
- 前記第1および第2の物理的なコントローラは互いに同一である、請求項2〜8のいずれか1項に記載の方法。
- 前記コンピュータシステムにおけるデフォルトとして、前記ジェスチャの検出に応じて、前記仮想コントローラからの前記第1の機能の割当ての解除、または、前記第2の機能の前記仮想コントローラとの対応付けを記憶する、前述の請求項のいずれか1項に記載の方法。
- 前記仮想コントローラは前記コンピュータシステムによって生成された仮想空間において定義され、前記第1の機能は前記ジェスチャの検出に応じて前記仮想コントローラからの割当てを解除され、前記方法はさらに、前記仮想空間においてポイントを定義することと、前記ジェスチャの検出に応じて、前記第1の機能を前記ポイントと対応付けることとを備える、請求項1に記載の方法。
- 前記第2の機能は、前記ジェスチャが検出される前に前記仮想コントローラに既に割当てられている、請求項11に記載の方法。
- 前記仮想コントローラは第1の仮想コントローラであり、前記物理的なコントローラは第1の物理的なコントローラであり、前記方法はさらに、
前記コンピュータシステムにおける第2の仮想コントローラを第2の物理的なコントローラと対応付けることと、
前記第2の機能を前記第2の仮想コントローラに割当てることとを備える、請求項11または12に記載の方法。 - 前記第2の機能を前記第1の仮想コントローラにも割当てることをさらに備える、請求項13に記載の方法。
- 前記第1の機能は仮想ペインティングプログラムにおいてパレット機能を含み、前記第2の機能は前記仮想ペインティングプログラムにおいてブラシ機能を含み、前記第1の仮想コントローラからの前記第1の機能の割当ての解除によって、前記第1および第2の物理的なコントローラの双方を使用して前記仮想ペインティングプログラムにおいて前記ブラシ機能を実行できる、請求項14に記載の方法。
- 前記ジェスチャはセンサを用いて検出される、前述の請求項のいずれか1項に記載の方法。
- 前記センサは前記物理的なコントローラ上に位置する、請求項16に記載の方法。
- 前記センサによって生成されたセンサデータから、前記物理的なコントローラに関する速度および位置情報を推定することをさらに備える、請求項16または17に記載の方法。
- 前記センサデータから前記物理的なコントローラに関する方位データを推定することをさらに備える、請求項16〜18のいずれか1項に記載の方法。
- 非一時的な記憶媒体において有形に具現化された、実行されるとプロセッサに請求項1〜19のいずれか1項に記載の操作を行わせる命令を含むコンピュータプログラム製品。
- プロセッサと、
実行されると前記プロセッサに請求項1〜19のいずれか1項に記載の操作を行わせる命令を含む、非一時的な記憶媒体において有形に具現化されたコンピュータプログラム製品とを備える、システム。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762448172P | 2017-01-19 | 2017-01-19 | |
US62/448,172 | 2017-01-19 | ||
US15/794,265 | 2017-10-26 | ||
US15/794,265 US10459519B2 (en) | 2017-01-19 | 2017-10-26 | Function allocation for virtual controller |
PCT/US2017/059029 WO2018136126A1 (en) | 2017-01-19 | 2017-10-30 | Function allocation for virtual controller |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020500356A true JP2020500356A (ja) | 2020-01-09 |
JP6859433B2 JP6859433B2 (ja) | 2021-04-14 |
Family
ID=62838710
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019520892A Active JP6859433B2 (ja) | 2017-01-19 | 2017-10-30 | 仮想コントローラのための機能割当て |
Country Status (6)
Country | Link |
---|---|
US (1) | US10459519B2 (ja) |
EP (1) | EP3571571B1 (ja) |
JP (1) | JP6859433B2 (ja) |
KR (1) | KR102290933B1 (ja) |
CN (1) | CN109716267B (ja) |
WO (1) | WO2018136126A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102065421B1 (ko) * | 2017-08-10 | 2020-01-13 | 엘지전자 주식회사 | 모바일 기기 및 모바일 기기를 활용한 가상현실 기기 컨트롤러 구동 방법. |
US11861136B1 (en) * | 2017-09-29 | 2024-01-02 | Apple Inc. | Systems, methods, and graphical user interfaces for interacting with virtual reality environments |
US10824244B2 (en) * | 2018-11-19 | 2020-11-03 | Facebook Technologies, Llc | Systems and methods for transitioning between modes of tracking real-world objects for artificial reality interfaces |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006350838A (ja) * | 2005-06-17 | 2006-12-28 | Fujitsu Ltd | 情報処理装置およびプログラム |
JP2010245796A (ja) * | 2009-04-06 | 2010-10-28 | Sony Corp | 映像表示装置および方法、映像表示システム、並びにプログラム |
JP2011227628A (ja) * | 2010-04-16 | 2011-11-10 | Sony Corp | 情報処理装置、情報処理方法、プログラム、及び情報処理システム |
KR20130027006A (ko) * | 2009-11-13 | 2013-03-14 | 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 | 최소 침습 수술 시스템에서 손 제스처 제어를 위한 방법 및 장치 |
JP2013522766A (ja) * | 2010-03-16 | 2013-06-13 | インターフェイズ・コーポレーション | 対話型表示システム |
WO2014080829A1 (ja) * | 2012-11-22 | 2014-05-30 | シャープ株式会社 | データ入力装置 |
WO2016029183A1 (en) * | 2014-08-22 | 2016-02-25 | Sony Computer Entertainment Inc. | Glove interface object |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070155589A1 (en) | 2002-12-04 | 2007-07-05 | Philip Feldman | Method and Apparatus for Operatively Controlling a Virtual Reality Scenario with an Isometric Exercise System |
US20060097453A1 (en) | 2002-12-04 | 2006-05-11 | Philip Feldman | Game controller with force sensing input devices and method of measuring applied forces to game controller input devices to interact with a gaming application |
JP5204381B2 (ja) * | 2006-05-01 | 2013-06-05 | 任天堂株式会社 | ゲームプログラム、ゲーム装置、ゲームシステム及びゲーム処理方法 |
US7701439B2 (en) | 2006-07-13 | 2010-04-20 | Northrop Grumman Corporation | Gesture recognition simulation system and method |
US20110276891A1 (en) * | 2010-05-06 | 2011-11-10 | Marc Ecko | Virtual art environment |
US9411509B2 (en) * | 2010-12-29 | 2016-08-09 | Microsoft Technology Licensing, Llc | Virtual controller for touch display |
US20130265240A1 (en) * | 2012-04-06 | 2013-10-10 | At&T Intellectual Property I, Lp | Method and apparatus for presenting a virtual touchscreen |
US9254437B2 (en) | 2012-04-25 | 2016-02-09 | Electronic Entertainment Design And Research | Interactive gaming analysis systems and methods |
US9041622B2 (en) * | 2012-06-12 | 2015-05-26 | Microsoft Technology Licensing, Llc | Controlling a virtual object with a real controller device |
US11826636B2 (en) * | 2013-07-12 | 2023-11-28 | Chris Argiro | Depth sensing module and mobile device including the same |
CN103442244A (zh) | 2013-08-30 | 2013-12-11 | 北京京东方光电科技有限公司 | 3d眼镜、3d显示系统及3d显示方法 |
JP2015114836A (ja) * | 2013-12-11 | 2015-06-22 | キヤノン株式会社 | 画像処理装置、触感制御方法及びプログラム |
US9937415B1 (en) * | 2013-12-17 | 2018-04-10 | Amazon Technologies, Inc. | Virtual controller for touchscreen |
FR3016451B1 (fr) * | 2014-01-10 | 2017-06-23 | Inria Inst Nat De Rech En Informatique Et En Automatique | Systeme d'interaction avec des objets virtuels |
WO2015149163A1 (en) * | 2014-04-03 | 2015-10-08 | Macro Technology Ltd. | Co-extrusion die with rectangular feed channel |
US9696813B2 (en) * | 2015-05-27 | 2017-07-04 | Hsien-Hsiang Chiu | Gesture interface robot |
US10286308B2 (en) * | 2014-11-10 | 2019-05-14 | Valve Corporation | Controller visualization in virtual and augmented reality environments |
WO2016094568A1 (en) * | 2014-12-10 | 2016-06-16 | Sixense Entertainment, Inc. | System and method for assisting a user in remaining in a selected area while the user is in a virtual reality environment |
EP3262437B1 (en) * | 2015-02-27 | 2024-04-10 | Valve Corporation | Controller visualization in virtual and augmented reality environments |
US10102674B2 (en) | 2015-03-09 | 2018-10-16 | Google Llc | Virtual reality headset connected to a mobile computing device |
WO2017082457A1 (ko) * | 2015-11-11 | 2017-05-18 | 엘지전자 주식회사 | Hmd 및 그 hmd의 제어 방법 |
CN105892675A (zh) | 2016-04-26 | 2016-08-24 | 乐视控股(北京)有限公司 | 基于手柄控制虚拟现实头盔的方法、装置及系统 |
KR102086941B1 (ko) * | 2016-05-12 | 2020-03-11 | 서크 코퍼레이션 | 정전식 센싱을 이용한 컨트롤러 예감 |
CN106325735A (zh) * | 2016-07-19 | 2017-01-11 | 钟林 | 一种利用方位手势触摸操作电子游戏的方法及装置 |
-
2017
- 2017-10-26 US US15/794,265 patent/US10459519B2/en active Active
- 2017-10-30 JP JP2019520892A patent/JP6859433B2/ja active Active
- 2017-10-30 EP EP17893280.2A patent/EP3571571B1/en active Active
- 2017-10-30 CN CN201780057985.3A patent/CN109716267B/zh active Active
- 2017-10-30 WO PCT/US2017/059029 patent/WO2018136126A1/en unknown
- 2017-10-30 KR KR1020197012238A patent/KR102290933B1/ko active IP Right Grant
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006350838A (ja) * | 2005-06-17 | 2006-12-28 | Fujitsu Ltd | 情報処理装置およびプログラム |
JP2010245796A (ja) * | 2009-04-06 | 2010-10-28 | Sony Corp | 映像表示装置および方法、映像表示システム、並びにプログラム |
KR20130027006A (ko) * | 2009-11-13 | 2013-03-14 | 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 | 최소 침습 수술 시스템에서 손 제스처 제어를 위한 방법 및 장치 |
JP2013522766A (ja) * | 2010-03-16 | 2013-06-13 | インターフェイズ・コーポレーション | 対話型表示システム |
JP2011227628A (ja) * | 2010-04-16 | 2011-11-10 | Sony Corp | 情報処理装置、情報処理方法、プログラム、及び情報処理システム |
WO2014080829A1 (ja) * | 2012-11-22 | 2014-05-30 | シャープ株式会社 | データ入力装置 |
WO2016029183A1 (en) * | 2014-08-22 | 2016-02-25 | Sony Computer Entertainment Inc. | Glove interface object |
Also Published As
Publication number | Publication date |
---|---|
EP3571571A1 (en) | 2019-11-27 |
JP6859433B2 (ja) | 2021-04-14 |
US10459519B2 (en) | 2019-10-29 |
CN109716267B (zh) | 2022-11-29 |
WO2018136126A1 (en) | 2018-07-26 |
US20180203502A1 (en) | 2018-07-19 |
KR20190059946A (ko) | 2019-05-31 |
EP3571571A4 (en) | 2020-11-04 |
CN109716267A (zh) | 2019-05-03 |
EP3571571B1 (en) | 2023-10-25 |
KR102290933B1 (ko) | 2021-08-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11181986B2 (en) | Context-sensitive hand interaction | |
JP6895390B2 (ja) | 仮想現実においてハンドヘルド電子装置を追跡するためのシステム | |
JP6633256B1 (ja) | 拡張現実および/または仮想現実環境におけるジェスチャーによる仮想注記面の生成 | |
US10642344B2 (en) | Manipulating virtual objects with six degree-of-freedom controllers in an augmented and/or virtual reality environment | |
CN109074154B (zh) | 增强和/或虚拟现实中的悬停触摸输入补偿 | |
KR102233807B1 (ko) | 가상 현실 시스템을 위한 입력 제어기 안정화 기법 | |
CN111373349B (zh) | 用于在增强现实环境中导航的方法、设备及存储介质 | |
KR102338835B1 (ko) | 증강 및/또는 가상 현실 환경에서의 세션 종료 검출 | |
KR102251252B1 (ko) | 가상 현실에서의 위치 지구본 | |
JP7030854B2 (ja) | 仮想現実システム内の仮想コントローラの位置および向きの追跡 | |
JP2023526270A (ja) | 低電力セミパッシブ相対6自由度トラッキング | |
JP2020500356A (ja) | 仮想コントローラのための機能割当て | |
CN110520826B (zh) | 增强和/或虚拟现实环境中的智能命令合批 | |
EP3582080A1 (en) | Systems and methods for integrating haptics overlay in augmented reality | |
WO2023283145A1 (en) | Method and device for dynamically selecting an operation modality for an object | |
KR20240036582A (ko) | 물리적 객체와의 사용자 인터페이스에 대한 상호작용들을 관리하기 위한 방법 및 디바이스 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190418 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190418 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200526 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200616 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200908 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201104 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210120 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210224 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210325 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6859433 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |