JP2020518902A - 発光ユーザ入力デバイス - Google Patents
発光ユーザ入力デバイス Download PDFInfo
- Publication number
- JP2020518902A JP2020518902A JP2019556946A JP2019556946A JP2020518902A JP 2020518902 A JP2020518902 A JP 2020518902A JP 2019556946 A JP2019556946 A JP 2019556946A JP 2019556946 A JP2019556946 A JP 2019556946A JP 2020518902 A JP2020518902 A JP 2020518902A
- Authority
- JP
- Japan
- Prior art keywords
- user input
- light emitting
- input device
- light
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000009471 action Effects 0.000 claims abstract description 30
- 238000000034 method Methods 0.000 claims description 296
- 125000001475 halogen functional group Chemical group 0.000 claims description 243
- 230000033001 locomotion Effects 0.000 claims description 213
- 230000008569 process Effects 0.000 claims description 148
- 230000003993 interaction Effects 0.000 claims description 94
- 238000003384 imaging method Methods 0.000 claims description 79
- 230000004044 response Effects 0.000 claims description 79
- 230000000007 visual effect Effects 0.000 claims description 73
- 230000003287 optical effect Effects 0.000 claims description 63
- 230000008859 change Effects 0.000 claims description 62
- 238000004891 communication Methods 0.000 claims description 43
- 238000004422 calculation algorithm Methods 0.000 claims description 35
- 238000005286 illumination Methods 0.000 claims description 22
- 239000003086 colorant Substances 0.000 claims description 21
- 238000013507 mapping Methods 0.000 claims description 15
- 230000003190 augmentative effect Effects 0.000 claims description 14
- 230000004438 eyesight Effects 0.000 claims description 14
- 238000005259 measurement Methods 0.000 claims description 14
- 238000004458 analytical method Methods 0.000 claims description 11
- 230000000977 initiatory effect Effects 0.000 claims description 8
- 238000001228 spectrum Methods 0.000 claims description 8
- 230000006399 behavior Effects 0.000 claims description 6
- 230000004043 responsiveness Effects 0.000 claims description 6
- 230000008093 supporting effect Effects 0.000 claims description 6
- 210000003813 thumb Anatomy 0.000 abstract description 39
- 230000036544 posture Effects 0.000 description 42
- 230000007613 environmental effect Effects 0.000 description 32
- 238000012545 processing Methods 0.000 description 31
- 239000010410 layer Substances 0.000 description 28
- 210000003811 finger Anatomy 0.000 description 24
- 210000001747 pupil Anatomy 0.000 description 24
- 210000003128 head Anatomy 0.000 description 19
- 230000004308 accommodation Effects 0.000 description 15
- 238000005516 engineering process Methods 0.000 description 15
- 238000000605 extraction Methods 0.000 description 15
- 238000012800 visualization Methods 0.000 description 15
- 239000000853 adhesive Substances 0.000 description 14
- 230000001070 adhesive effect Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 14
- 230000000694 effects Effects 0.000 description 14
- 230000006870 function Effects 0.000 description 13
- 230000007423 decrease Effects 0.000 description 9
- 239000000463 material Substances 0.000 description 9
- 238000003825 pressing Methods 0.000 description 9
- 230000002829 reductive effect Effects 0.000 description 9
- 239000000284 extract Substances 0.000 description 7
- 239000000835 fiber Substances 0.000 description 7
- 238000004519 manufacturing process Methods 0.000 description 7
- 238000001514 detection method Methods 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 6
- 238000010079 rubber tapping Methods 0.000 description 6
- 239000007787 solid Substances 0.000 description 6
- 239000011521 glass Substances 0.000 description 5
- 230000035807 sensation Effects 0.000 description 5
- 230000001953 sensory effect Effects 0.000 description 5
- 230000003213 activating effect Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 4
- 230000004397 blinking Effects 0.000 description 4
- 210000004556 brain Anatomy 0.000 description 4
- 230000004424 eye movement Effects 0.000 description 4
- 238000002347 injection Methods 0.000 description 4
- 239000007924 injection Substances 0.000 description 4
- 230000002452 interceptive effect Effects 0.000 description 4
- 239000013307 optical fiber Substances 0.000 description 4
- 230000008447 perception Effects 0.000 description 4
- 238000000926 separation method Methods 0.000 description 4
- 238000003860 storage Methods 0.000 description 4
- 229920002799 BoPET Polymers 0.000 description 3
- 239000005041 Mylar™ Substances 0.000 description 3
- 238000012790 confirmation Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 3
- 230000001788 irregular Effects 0.000 description 3
- 230000000670 limiting effect Effects 0.000 description 3
- 238000009877 rendering Methods 0.000 description 3
- 230000035945 sensitivity Effects 0.000 description 3
- BQCADISMDOOEFD-UHFFFAOYSA-N Silver Chemical compound [Ag] BQCADISMDOOEFD-UHFFFAOYSA-N 0.000 description 2
- 239000004809 Teflon Substances 0.000 description 2
- 229920006362 Teflon® Polymers 0.000 description 2
- 230000002350 accommodative effect Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 239000012790 adhesive layer Substances 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000005266 casting Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000000994 depressogenic effect Effects 0.000 description 2
- 239000006185 dispersion Substances 0.000 description 2
- 210000000613 ear canal Anatomy 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000007499 fusion processing Methods 0.000 description 2
- 239000000499 gel Substances 0.000 description 2
- 210000004247 hand Anatomy 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 239000011022 opal Substances 0.000 description 2
- 230000001151 other effect Effects 0.000 description 2
- 239000002245 particle Substances 0.000 description 2
- 239000004033 plastic Substances 0.000 description 2
- 229920001343 polytetrafluoroethylene Polymers 0.000 description 2
- 239000004810 polytetrafluoroethylene Substances 0.000 description 2
- 239000000047 product Substances 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 210000001525 retina Anatomy 0.000 description 2
- 229910052709 silver Inorganic materials 0.000 description 2
- 239000004332 silver Substances 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- BFKJFAAPBSQJPD-UHFFFAOYSA-N tetrafluoroethene Chemical group FC(F)=C(F)F BFKJFAAPBSQJPD-UHFFFAOYSA-N 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 238000001429 visible spectrum Methods 0.000 description 2
- QNRATNLHPGXHMA-XZHTYLCXSA-N (r)-(6-ethoxyquinolin-4-yl)-[(2s,4s,5r)-5-ethyl-1-azabicyclo[2.2.2]octan-2-yl]methanol;hydrochloride Chemical compound Cl.C([C@H]([C@H](C1)CC)C2)CN1[C@@H]2[C@H](O)C1=CC=NC2=CC=C(OCC)C=C21 QNRATNLHPGXHMA-XZHTYLCXSA-N 0.000 description 1
- 101710181757 1,2-dihydroxy-3-keto-5-methylthiopentene dioxygenase Proteins 0.000 description 1
- 101710094863 Acireductone dioxygenase Proteins 0.000 description 1
- 241001270131 Agaricus moelleri Species 0.000 description 1
- 241000256837 Apidae Species 0.000 description 1
- 206010019233 Headaches Diseases 0.000 description 1
- 206010021403 Illusion Diseases 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 239000004983 Polymer Dispersed Liquid Crystal Substances 0.000 description 1
- 244000154870 Viola adunca Species 0.000 description 1
- 235000005811 Viola adunca Nutrition 0.000 description 1
- 235000013487 Viola odorata Nutrition 0.000 description 1
- 235000002254 Viola papilionacea Nutrition 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 229910052782 aluminium Inorganic materials 0.000 description 1
- XAGFODPZIPBFFR-UHFFFAOYSA-N aluminium Chemical compound [Al] XAGFODPZIPBFFR-UHFFFAOYSA-N 0.000 description 1
- 208000003464 asthenopia Diseases 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- FFBHFFJDDLITSX-UHFFFAOYSA-N benzyl N-[2-hydroxy-4-(3-oxomorpholin-4-yl)phenyl]carbamate Chemical compound OC1=C(NC(=O)OCC2=CC=CC=C2)C=CC(=C1)N1CCOCC1=O FFBHFFJDDLITSX-UHFFFAOYSA-N 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 238000005253 cladding Methods 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 235000014510 cooky Nutrition 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000881 depressing effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 230000005674 electromagnetic induction Effects 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 239000006260 foam Substances 0.000 description 1
- 239000005337 ground glass Substances 0.000 description 1
- 229910052736 halogen Inorganic materials 0.000 description 1
- 150000002367 halogens Chemical class 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 231100000869 headache Toxicity 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000007373 indentation Methods 0.000 description 1
- 238000003064 k means clustering Methods 0.000 description 1
- 230000001795 light effect Effects 0.000 description 1
- 229910052751 metal Inorganic materials 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000002861 polymer material Substances 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 239000002096 quantum dot Substances 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 230000036387 respiratory rate Effects 0.000 description 1
- 210000004935 right thumb Anatomy 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
- 231100000430 skin reaction Toxicity 0.000 description 1
- 125000006850 spacer group Chemical group 0.000 description 1
- 230000004936 stimulating effect Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
- 230000036410 touch Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
- G06F3/0308—Detection arrangements using opto-electronic means comprising a plurality of distinctive and separately oriented light emitters or reflectors associated to the pointing device, e.g. remote cursor controller with distinct and separately oriented LEDs at the tip whose radiations are captured by a photo-detector associated to the screen
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03547—Touch pads, in which fingers can move on a surface
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0483—Interaction with page-structured environments, e.g. book metaphor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/145—Illumination specially adapted for pattern recognition, e.g. using gratings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/20—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
- G09G3/22—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources
- G09G3/30—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using electroluminescent panels
- G09G3/32—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using electroluminescent panels semiconductive, e.g. using light-emitting diodes [LED]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/80—Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/038—Indexing scheme relating to G06F3/038
- G06F2203/0384—Wireless input, i.e. hardware and software details of wireless interface arrangements for pointing devices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04103—Manufacturing, i.e. details related to manufacturing processes specially suited for touch sensitive devices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04105—Pressure sensors for measuring the pressure or force exerted on the touch surface without providing the touch position
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2320/00—Control of display operating conditions
- G09G2320/06—Adjustment of display parameters
- G09G2320/0626—Adjustment of display parameters for control of overall brightness
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computer Hardware Design (AREA)
- Optics & Photonics (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Ophthalmology & Optometry (AREA)
- Computer Graphics (AREA)
- Evolutionary Computation (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Computer Networks & Wireless Communication (AREA)
- Medical Informatics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Image Analysis (AREA)
Abstract
Description
本願は、2017年4月27日に出願され“LIGHT−EMITTING USER INPUT DEVICE”と題された米国仮出願第62/490,863号に対する35 U.S.C. § 119(e)のもとでの優先権の利益を主張するものであり、該米国仮出願の開示は、その全体が参照により本明細書中に援用される。
タッチセンサ式ユーザ入力デバイスは、スワイプ、タップ、クリック、押下等のユーザ入力をサポートすることができる。例えば、ユーザが、タッチパッドを使用して、ウェブサイトをブラウズするとき、ユーザは、1つの指(例えば、親指)を使用して、左右にスワイプさせ、ウェブページを左右に移動させる、または上下にタップし、ウェブページを上下に移動させることができる。例えば、コンテンツを所望の場所にスナップする、コンテンツをスクロールまたはリサイズする等、より多くのユーザインターフェース機能性を達成するために、タッチセンサ式ユーザ入力デバイスは、多くの場合、複数の指を要求する。例えば、ユーザは、2つの指を使用して、ウェブページを拡大し、1つの指を使用して、ウェブページ内を移動させ得る。しかしながら、タッチパッドが、ウェアラブルデバイス(AR/VR/MRウェアラブルディスプレイを含み得る)のためのハンドヘルドユーザ入力デバイスの一部であるとき、ユーザは、それほど多くの指がタッチパッドと相互作用するために利用可能ではない場合がある。例えば、ユーザは、親指を使用して、タッチパッドと相互作用しながら、他の指を使用して、トーテムを保持し得る。その結果、従来のハンドヘルドデバイスのタッチパッドによって達成され得る、ユーザインターフェース機能性のタイプは、有意に減少し得る。
ウェアラブルシステム(本明細書では、拡張現実(AR)システムとも称される)は、2Dまたは3D仮想画像をユーザに提示するために構成されることができる。画像は、組み合わせまたは同等物における、静止画像、ビデオのフレーム、またはビデオであってもよい。ウェアラブルシステムは、ユーザ相互作用のために、単独で、または組み合わせて、VR、AR、またはMR環境を提示し得る、ウェアラブルデバイスを備えてもよい。ウェアラブルデバイスは、例えば、頭部搭載型ディスプレイ(HMD)等のウェアラブルディスプレイデバイスを含むことができる。ウェアラブルデバイスはまた、ウェアラブルデバイスのためのデータ処理の一部を取り扱う中央処理ユニット、バッテリ等を備え得る、ベルトパックを含むことができる。いくつかの状況では、ウェアラブルデバイスは、拡張現実デバイス(ARD)と同義的に使用されることができる。
図4は、画像情報をユーザに出力するための導波管スタックの実施例を図示する。ウェアラブルシステム400は、複数の導波管432b、434b、436b、438b、400bを使用して、3次元知覚を眼/脳に提供するために利用され得る、導波管のスタックまたはスタックされた導波管アセンブリ480を含む。いくつかの実施形態では、ウェアラブルシステム400は、図2のウェアラブルシステム200に対応してもよく、図4は、そのウェアラブルシステム200のいくつかの部分をより詳細に図式的に示す。例えば、いくつかの実施形態では、導波管アセンブリ480は、図2のディスプレイ220の中に統合されてもよい。
ウェアラブルシステムの他のコンポーネント
ウェアラブルシステムは、高被写界深度をレンダリングされた明視野内で達成するために、種々のマッピング関連技法を採用してもよい。仮想世界をマッピングする際、実世界内の全ての特徴および点を把握し、仮想オブジェクトを実世界に関連して正確に描くことが有利である。この目的を達成するために、ウェアラブルシステムのユーザから捕捉されたFOV画像が、実世界の種々の点および特徴についての情報を伝達する新しい写真を含むことによって、世界モデルに追加されることができる。例えば、ウェアラブルシステムは、マップ点(2D点または3D点等)のセットを収集し、新しいマップ点を見出し、世界モデルのより正確なバージョンをレンダリングすることができる。第1のユーザの世界モデルは、第2のユーザが第1のユーザを囲繞する世界を体験し得るように、(例えば、クラウドネットワーク等のネットワークを経由して)第2のユーザに通信されることができる。
図4および7−10を参照して説明されるように、ユーザは、ユーザ入力デバイス466(例えば、トーテム等)を使用して、種々のユーザインターフェース動作をディスプレイ(例えば、ディスプレイ220)上で実施することができる。図12Aは、トーテム1200の例示的実施形態を図示し、側面図1210および正面(ユーザに面した)1250を図示する。トーテム1200は、単独で、または他のユーザ入力デバイスと組み合わせて、ユーザ入力デバイス466(図4に示される)であってもよい。トーテム1200は、ハンドヘルドであるように定寸および成形されることができる。本明細書に開示される種々の実施形態のうちの1つ以上のものにおけるユーザ入力デバイス(例えば、トーテム等)のさらなる実施例は、2017年8月22日に出願された米国特許出願第15/683,677号に示され、かつ説明されており、装飾的外観は、2016年8月22日に出願された米国意匠特許出願第29/575,031号のトーテムコントローラと同一または類似する(前述の出願は両方とも、参照することによってその全体として本明細書に組み込まれる)。
トリガ1212は、ユーザから外に向いたトーテム本体1214の上側部分上に位置することができる。トリガ1212は、タッチ表面1234と、ユーザ入力を受信し得る、タッチセンサ(図12Aには図示せず)とを含むことができる。タッチセンサは、タッチ表面1234上(またはその近傍の)ユーザの指およびタッチ表面1234上のユーザの指の移動を感知することができる。加えて、または代替として、トリガ1212は、ボタン1232を含むことができ、これを、ユーザが、押下することができる。ボタン1232は、圧力センサを含むことができ、これは、ユーザがボタン1232を押下するときを検出することができる。ボタン1232は、その静置位置から6〜8mm押下されてもよい。いくつかの実施形態では、トリガ1212は、例えば、選択、戻る、オプション等、複数のボタンを含むことができる。
トーテムは、ユーザに向かって面したトーテム本体1214の上側正面部分上に位置する、タッチパッド1260を含むことができる。タッチパッド1260は、タッチ表面1262と、光導波路1264とを含むことができる。いくつかの実施例では、タッチパッド1260の構造および/または機能性は、米国特許出願第15/683,677号(上記に述べられたように、参照することによってその全体として本明細書に組み込まれる)に説明されるものと実質的に同一または類似してもよい。図示される実施例では、光導波路1264は、タッチ表面1262を実質的に囲繞する。タッチパッド1260は、種々の相互作用可能領域を含むことができる。例えば、ユーザは、タッチ表面1262、光導波路1262を、単独で、または組み合わせて、作動させることができる。タッチ表面1262はさらに、複数の相互作用可能領域を含むことができ、各領域は、ユーザ入力(またはユーザインターフェース動作)のタイプにマッピングされる。
トーテム1200の本体1214は、懐中電灯(例えば、図12A参照)の形状であってもよく、本体は、より円錐台状の形状(ユーザの手の中に保持されることをより容易またはより快適にし得る)となるように、トーテムの上部に向かって外向きに角度付けられ得る、伸長シリンダを備える。本体1214は、ユーザの指のためのくぼみを含んでもよく、これは、トーテムを把持および保持することを補助し得る。図12Bは、トーテム1200の別の実施例を図示する、上面図1270である。本実施形態では、本体1214は、ユーザの掌内により適合する、または表面(例えば、テーブル)上に置かれるとき、より安定し得るように、卵円形形状である。いくつかの実施例では、トーテム1200の本体1214の装飾的外観は、2016年8月22日に出願された米国意匠特許出願第29/575,031号(上記に述べられたように、参照することによってその全体として本明細書に組み込まれる)に示され、かつ説明される、トーテムコントローラのものと実質的に同一または類似してもよい。卵形、多角形等の断面を有する、伸長本体等、本体1214のための他の形状も、可能性として考えられる。本体1214の断面は、トーテム1200がユーザの左手またはユーザの右手の中に容易に保持され得るように、実質的に対称であってもよい。
トーテム1200は、ホームボタン1256を含むことができる。ホームボタン1256は、トーテム1200の本体1214上に位置することができる。ユーザがホームボタン1256を作動させると、ウェアラブルシステムは、例えば、アプリケーションまたはディスプレイのメインメニューに戻る/それを開く、プログラムを終了する、アプリケーションを選択する等、種々のユーザインターフェース動作を実施してもよい。いくつかの実施形態では、ユーザがホームボタン1256を作動させると、ウェアラブルシステムは、スリープモードに入る、またはそこからウェイクアップする、ディスプレイ上の仮想コンテンツをオンまたはオフにする等してもよい。
トーテムの本体1214を参照して説明されるように、トーテム1200の本体1214は、基部1220に除去可能に取り付けられてもよい。基部とトーテムとの間のインターフェースは、充電を可能にする、トーテム内のデータにアクセスする、またはソフトウェア更新等を提供することができる。例えば、基部1220は、ユニバーサルシリアルバス(USB)プラグを含むことができ、これは、本体1214の底部部分1244上のUSBポートに差し込まれることができる。基部1220はさらに、トーテムを充電するために、電源コードを使用して電気コンセントに接続されることができる。基部はまた、有線または無線通信チャネルを使用して、パーソナルコンピュータ、テレビ、プロジェクタ等の他のコンピューティングデバイスと接続することができる。
トーテム1200は、例えば、タッチ、スワイプ、スクロール、ダイヤル回転、クリック、押下、Dパッドエミュレーション等、種々の入力技法をサポートすることができる。いくつかの実施形態では、トーテム1200は、慣性スワイプをサポートすることができる。例えば、ユーザがタッチパッド1260上の軌道に沿ってスワイプすると、仮想オブジェクトは、ユーザの指がスワイプを停止しても、軌道に沿って移動し続け得る。トーテム1200はまた、例えば、タッチパッド1260または光導波路1264の水平または垂直縁上のスワイプ等、縁スワイプをサポートすることができる。
タッチパッドの断面図
図13Aは、トーテム1200の例示的タッチパッド1260の断面図を図示する。例示的タッチパッド1260は、図12Aおよび12Bを参照して説明されるトーテム1200の一部であってもよい。タッチパッド1260は、3層、すなわち、上部層1312と、中央層1314と、底部層1316とを含むことができる。
図13Eは、例示的タッチパッドの底面図を図示する。タッチパッド1390は、タッチパッド1260の実施形態であってもよい。タッチパッド1390は、12のLED1394aを含むことができるが、他の数のLEDもまた、可能性として考えられる。12のLED1394aは、本実施例では、円周方向に等しく離間されるが、他の実施例では(図14Bおよび15を参照して説明される実施例等)、LED間の間隔は、必ずしも、等しくなくてもよい。12のLEDは、タッチパッドの底部上に位置してもよい。タッチパッドは、LEDを選択的に照明し、光パターンを作成することができ、これは、後光としてタッチパッドの周囲に現れ得る。
図14Aは、トーテムの例示的タッチパッドの上面図を図示する。図14Aにおけるタッチパッド1260は、アーマチュア1320と、光導波路1264と、タッチ表面1262(さらに、相互作用可能領域1262aおよび1262bに分割され得る)とを含むことができる。光導波路1264は、光源(例えば、LED)1330(図14Aにおける破線に示される)の上部に位置付けられてもよい。
図14Bは、タッチパッドと関連付けられた光源(例えば、LED)の例示的レイアウトの概要を図示する。図14Bは、タッチパッド1450を示し、これは、12のLED(LED0、LED2…LED11として図示される)を周界上に伴う、可視円形表面1452を有する。これらの12のLEDは、それらが具体的シーケンスで照明されるとき、具体的情報を表すために使用されることができる。例えば、各LEDは、ビットを割り当てられ、したがって、12ビットワードをもたらし得る。図24B、20A、および20Bを参照して説明されるように、ウェアラブルデバイスの外向きに面した結像システム464は、LEDの表示シーケンスを捕捉することができる。ウェアラブルデバイスは、次いで、画像を分析し、情報を表示シーケンスから抽出することができる。抽出された情報は、例えば、トーテムとウェアラブルデバイスをペアリングする、トーテムを較正する等のために使用されてもよい。例えば、LED0、3、6、9が、照明されると、ウェアラブルデバイスは、ウェアラブルデバイスとトーテムとの間のペアリングが開始されることを認識し得る。故に、ウェアラブルデバイスは、その環境内の無線(例えば、Bluetooth(登録商標))デバイスを検索し、任意の新しいデバイス(LEDと関連付けられたトーテム等)が存在するかどうかを決定し得る。LEDが、多着LED(例えば、RGB LED等)であるとき、LED光パターンによって表される情報の量は、増加し得る(例えば、12ビットワードを上回る)。例えば、LED6、7、8における青色光は、トーテムがペアリングモードにあることを示し得る一方、LED6、7、8における黄色光は、トーテムが充電モードにあることを示し得る。
図16Aおよび16Bは、トーテム(または他のタイプの発光ユーザ入力デバイス)の後光からの光放出の例示的場所または移動パターンを図示する。上記に説明されるように、後光は、タッチパッド領域を囲繞する、トーテムの照明される部分を構成し得る。図16Aおよび16Bに示される実施形態に図示されるように、光導波路は、後光が、個々の離散光源ではなく、リングまたはリングの弧状部分として現れるように、個々の光源によって放出される光を実質的に拡散させる。
図17Aおよび17Bは、トーテム1200の例示的コンポーネントを図示する。例示的トーテム1200は、図12Aおよび12Bを参照して説明されるように、タッチパッド1260(タッチ表面1262と、光導波路1264とを含み得る)と、トリガ1212と、トーテム本体1214とを含むことができる。光導波路1264は、ユーザ相互作用可能領域(例えば、タッチセンサ式)を備えてもよく、少なくとも部分的または完全に、タッチ表面1262を囲繞してもよい。トーテム1200はまた、種々のコンポーネントを含むことができ、そのうちの少なくともいくつかは、トーテムの本体1214の内側に配置されてもよい。これらのコンポーネントは、下記にさらに説明され、環境センサ1710と、バッテリ1720と、近距離通信(NFC)インターフェース1732と、ネットワークインターフェース1734と、触覚アクチュエータ1760と、プロセッサ1770とを含むことができる。接続インターフェース1222は、本体1214の底部に配置され、例えば、トーテム1200を基部に除去可能に取り付けることができる。接続インターフェース1222は、電力を提供し、バッテリ1720を充電し、通信リンクをトーテムのコンポーネントと外部デバイス(例えば、コンピューティングデバイス)との間に提供するために使用されることができる。
トーテム1200は、図17Bに示される実施例では、トーテムの正面端、トリガ1212の上方、かつタッチパッド1260の下方に位置する、ボタン1266(バンパと称される)を含むことができる。バンパ1266は、ユーザがその人差し指を静置するために人間工学的に快適な場所を提供し得る。バンパ1266は、例えば、押下可能ボタン、容量タッチセンサ、力覚要素等として実装される、タッチセンサ式表面を備えることができる。
環境センサ1710は、ユーザの周囲の環境のオブジェクト、刺激、人々、動物、場所、または他の側面を検出するように構成されることができる。環境センサは、画像捕捉デバイス(例えば、カメラ)、マイクロホン、IMU、加速度計、コンパス、全地球測位システム(GPS)ユニット、無線デバイス、ジャイロスコープ、高度計、気圧計、化学センサ、湿度センサ、温度センサ、外部マイクロホン、光センサ(例えば、露光計)、タイミングデバイス(例えば、クロックまたはカレンダ)、またはその任意の組み合わせまたは副次的組み合わせを含んでもよい。いくつかの実施形態では、環境センサはまた、種々の生理学的センサを含んでもよい。これらのセンサは、心拍数、呼吸数、ガルバニック皮膚応答、血圧、脳波状態等のユーザの生理学的パラメータを測定または推定することができる。環境センサはさらに、レーザ、可視光、光の不可視波長、または音(例えば、可聴音、超音波、または他の周波数)等の信号を受信するように構成される、放出デバイスを含んでもよい。いくつかの実施形態では、1つ以上の環境センサ(例えば、カメラまたは光センサ)は、環境の周囲光(例えば、輝度)を測定する(例えば、環境の照明条件を捕捉する)ように構成されてもよい。タッチセンサ、歪みゲージ、縁石検出器、または同等物等の物理的接触センサもまた、環境センサとして含まれてもよい。
バッテリ1720は、トーテム1200のための電力を貯蔵する。トーテムは、プロセッサ1770を使用して、バッテリ1720の現在のステータスを決定することができる。例えば、プロセッサ1770は、バッテリ1720内に残っている電力の量、バッテリ1720が現在使用されているかどうか、およびバッテリ1720の残りの寿命(バッテリ1720が交換される必要があろうとき等)を測定および計算することができる。図21A−21Eにさらに説明されるように、バッテリ1720の現在のステータスは、光導波路1264、ホームボタン1256、トーテム本体1214の底部部分1244(例えば、図12Aに示される)上に位置するLED電力インジケータ、またはディスプレイ上に提示される、視覚的フィードバックを介して、可視化されてもよい。
NFCインターフェース1732およびネットワークインターフェース1734は、トーテムが、例えば、別のトーテム(または他のユーザ入力デバイス)、ウェアラブルディスプレイ、パーソナルコンピュータ、ヘッドホン、キー、サーバ、または別の物理的オブジェクト等の標的オブジェクトとペアリングまたは通信することを可能にするように構成されることができる。NFCインターフェース1732は、短距離無線通信のために使用されることができる(トーテムが標的オブジェクトから10cmまたはそれ未満の距離内にあるとき等)。いくつかの実施形態では、NFCは、NFC対応デバイス、例えば、トーテムおよびHMDが、相互に近接して(約10cm以内)位置付けられ、情報を無線で交換するときの2つのループアンテナ間の電磁誘導を採用する。本情報の交換は、ISO/IEC18000−3エアインターフェースを経由して、106〜424Kビット/秒に及ぶレートで、13.56MHzの地球規模で利用可能な非ライセンス無線周波数ISM帯域内で動作されてもよい。種々の通信プロトコルおよびデータ交換フォーマットが、NFCのために使用されてもよい。いくつかの非限定的実施例は、NFCフォーラムおよびGSMAグループ等によって定義された規格である、ISO/IEC14443およびFelicia、ISO/ICE18092を含む。
トーテム1200は、触覚アクチュエータ1760を含むことができる。図12Aを参照して説明されるように、触覚アクチュエータ1760は、触覚的フィードバックをユーザに提供することができる。1つ以上の触覚アクチュエータ1760が、トーテム1200内に実装されてもよい。触覚アクチュエータは、トリガ1212、タッチパッド1260、またはトーテム本体1214内に位置してもよい。
ハードウェアプロセッサ1770は、環境センサ1710によって入手されたデータを処理するように構成されることができる。プロセッサ1770はまた、NFCインターフェース1732またはネットワークインターフェース1734を介して、データを別のデバイス(ウェアラブルディスプレイまたは別のペアリングされるデバイス等)から受信し、そこに送信することができる。プロセッサ1770は、これらのデータを分析し、所与の時間における後光の場所または移動パターンを決定することができる。いくつかの実施形態では、プロセッサ1770は、別のコンピューティングデバイス(例えば、ウェアラブルデバイス、遠隔サーバ、またはパーソナルコンピュータ等)と協働し、分析してもよい。例えば、プロセッサ1770は、環境センサ1710を使用して、ユーザの移動を検出してもよい。プロセッサ1770は、さらなる分析のために、ユーザの移動データをローカル処理およびデータモジュール260または遠隔処理モジュール270にパスすることができる。プロセッサ1770は、分析の結果をローカル処理およびデータモジュール260または遠隔処理モジュール270から受信することができる。例えば、プロセッサ1770は、ゲーム内の競争者の位置および移動軌道に関する情報を受信してもよい。本情報に基づいて、プロセッサ1770は、LEDに、競争者の位置および移動軌道に対応する後光を表示するための光を放出するように命令することができる。
図12Aを参照して説明されるように、接続インターフェース1222は、別のデバイスとの接続を確立するために使用されてもよい。接続は、有線接続であってもよい。例えば、接続インターフェース1222は、USBコネクタを備えてもよい。接続インターフェース1222はまた、例えば、USB−Bタイプポート、USB−Aタイプポート、マイクロUSB、またはUSBタイプCポート等のUSBポートを備えてもよい。接続インターフェース1222はまた、充電のために電源に接続する電源コードを含むことができる。
本明細書に説明される照明される後光は、ウェアラブルシステムのユーザ、開発者、または別のエンティティによってカスタマイズされることができる。例えば、ウェアラブルシステムのユーザは、後光の光パターンの場所および移動と関連付けられた選好を設定することができる。選好は、図16Aおよび16Bを参照して説明されるコンテキスト情報と関連付けられてもよい。実施例として、ユーザは、システム通知(低バッテリステータス等)と関連付けられた後光の色を青色に設定する一方、ゲームオブジェクトと関連付けられた色を赤色に設定することができる。ユーザは、単独で、またはトーテムと組み合わせて、ウェアラブルデバイスを介して、その選好を設定することができる。ユーザの選好に基づいて、トーテムは、ユーザがウェアラブルシステムと相互作用するとき、照明される後光を自動的に提示することができる。いくつかの状況では、ユーザは、トーテム(図12Aに示されるトリガ1212等)を作動させることによって、または姿勢を介して、照明される後光をオフにすることができる。例えば、外向きに面した結像システム464は、後光をオフにすることと関連付けられたユーザの手のジェスチャを捕捉することができる。ウェアラブルシステムは、コンピュータビジョンアルゴリズムを使用して、手のジェスチャを外向きに面した結像システムによって入手された画像から認識し、適宜、トーテムに、照明される後光をオフにするように命令することができる。
ユーザ入力デバイス(本明細書に説明されるトーテム等)は、エラーを最小限にし、ユーザ相互作用体験を改良するために、較正を要求し得る。例えば、トーテムのIMUは、トーテムのユーザの移動を正確に検出し、それに応答するように較正される必要があり得る。較正は、通常、製造時(例えば、トーテムまたはIMUが製造されるとき)に行われる。製造後較正は、ユーザが、トーテムの製造業者が有するような制御および精密な較正システムを有し得ないため、困難であり得る。しかしながら、ユーザの運動度が変動し得るため、製造後較正を実施することは、ユーザにとって有益であり得る。例えば、あるユーザは、ユーザがそのトーテムを上下揺させるとき、他のユーザより大きい程度までその腕を移動させ得る。加えて、トーテムが異なるユーザに合わせられた可変応答度を有し得るように、カスタマイズされたユーザ体験を提供することが有利であり得る。一部のユーザは、より敏感なトーテム(若干の移動にも応答し得る)を好み得る一方、他のユーザは、あまり敏感ではないトーテム(若干の移動が存在するとき、ユーザインターフェース動作を実施しないように構成され得る)を好み得る。
図19Dは、後光と関連付けられた光パターンを使用したトーテム較正の例示的プロセス1990を図示する。例示的プロセス1990は、単独で、またはトーテムと組み合わせて、ウェアラブルシステム(例えば、ローカル処理およびデータモジュール260または遠隔処理モジュール270等)によって実施されることができる。
2つのデバイスが、ペアリングされる(例えば、Bluetooth(登録商標)を介して)前に、無線通信リンクを確立するために要求され得る。デバイスがペアリングすると、それらは、例えば、デバイスのユーザまたはデバイス自体のアドレス、名前、およびプロファイル等の情報を共有する、またはその個別のメモリ内に記憶される情報を共有することができる。いったん2つのデバイスがペアリングされると、それらは、共通秘密鍵を共有することができ、これは、将来的情報共有のために、それらが再び繋げられることを可能にすることができる。
図20Cは、後光を用いたデバイスペアリングの例示的プロセス2080を図示する。ペアリングは、ウェアラブルデバイスと別のデバイス(例えば、トーテム、スマートフォン、テレビ、スマートウォッチ等)との間で行われてもよい。例示的プロセス2080は、HMDと、外向きに面した結像システム464とを有する、ウェアラブルデバイスによって実施されることができる。プロセス2080は、トーテムと他のデバイス、HMD等をペアリングすることを補助するために使用されることができる。
後光の光パターンの場所および移動は、オブジェクトのステータスを示すためのキューとして使用されることができる。例えば、ある光場所または移動パターンは、ユーザがトーテムをオンまたはオフにしたかどうか、トーテムがスリープモードにあるかどうか、またはトーテムのバッテリ充電ステータスを示すために使用されることができる。非限定的例証的実施例は、下記に説明される。
図21Eは、光場所または移動パターンに基づいてトーテムのステータスを示す、例示的プロセスを図示する。図21Eにおけるプロセス2150は、本明細書に説明されるウェアラブルシステムの1つ以上のコンポーネントによって実施されることができる。例えば、プロセス2150は、トーテムまたはウェアラブルデバイスによって実施されることができる。
デバイスステータスに関する情報を提供することに加え、またはその代替として、後光はまた、現在のユーザ相互作用を示す、またはユーザの相互作用を誘導するためのキューとして使用されることができる。図22Aおよび22Bは、ユーザ相互作用のためのキューとして使用される、例示的光場所または移動パターンを図示する。図22Aは、後光パターン2210および2220を表示する。後光パターンは、トーテムのタッチ表面の周囲の光導波路によって表示されてもよい。ユーザは、例えば、その親指2230を使用して、タッチ表面を作動させることができる。後光パターン2210は、弧2222(桃色がかった紫色で照明されてもよい)を光導波路の左側に含むことができる。弧2222の長さおよび明度は、ユーザの指と弧2222を表示する光導波路の部分との間の距離を反映してもよい。
図24Cは、トーテム上でのユーザ相互作用のためのキューを提供する、例示的プロセスを図示する。例示的プロセス2480は、例えば、トーテムまたはウェアラブルデバイス等のウェアラブルシステムのコンポーネントによって実施されてもよい。
トーテムは、複数の相互作用可能領域を含むことができ、各相互作用可能領域は、ユーザ相互作用の1つ以上のタイプまたはユーザ入力デバイスのタイプにマッピングされることができる。図12Aおよび13Aを参照して説明されるように、いくつかの実施形態では、トーテムは、例えば、スワイプジェスチャ等のタッチイベントおよびジェスチャをサポートし得る、タッチ表面を構成する、第1の相互作用可能領域と、光導波路を構成する、第2の相互作用可能領域とを有する。光導波路は、タッチパッドの周囲の4つの点において、またはそれぞれ異なる色を有する4つの弧を用いて、後光を照明することができる。本照明パターンは、光導波路がDパッドとして使用されることを示すことができる。例えば、ユーザは、照明点上をタップまたは押下し、仮想オブジェクトを移動させることができる。同一ユーザジェスチャは、ジェスチャが光導波路またはタッチ表面(例えば、タッチパッドの主要中心エリア内)に適用されるかどうかに応じて、異なるユーザインターフェース動作を実施させることができる。例えば、ユーザが光導波路をタップすると、ユーザは、仮想オブジェクトを移動させ得るが、ユーザがタッチ表面をタップと、ユーザは、仮想オブジェクトを選択し得る。
図26Aおよび26Bは、トーテムを使用して物理的オブジェクトと相互作用する実施例を図示する。図26Aは、物理的環境2600の実施例を図示し、これは、ユーザの自宅の居間であってもよい。環境2600は、例えば、テレビ(TV)5110、物理的遠隔制御5120(時として、単に、遠隔と称される)、TVスタンド5130、および窓5140等の物理的オブジェクトを有する。ユーザは、物理的オブジェクトを知覚し、物理的オブジェクトと相互作用することができる。例えば、ユーザは、TV5110を鑑賞し、遠隔5120を使用して、TVを制御してもよい。ユーザは、遠隔5120を制御し、TV5110をオン/オフにする、またはTV5110のチャネルまたは音量を変化させることができる。
図27は、多DOF(例えば、3DOFまたは6DOF)トーテムを用いて仮想オブジェクトを移動させる、実施例を図示する。ユーザは、前/後(前後揺)、上/下(上下揺)、または左/右(左右揺)に移動させることによって、トーテムの位置を変化させることができる。ユーザはまた、側方に傾ける(ロール)、前後に傾ける(ピッチ)、または左および右に方向転換する(ヨー)ことによって、トーテムの配向を変化させることができる。トーテムの位置および配向を変化させることによって、ユーザは、種々のインターフェース動作を仮想オブジェクト上で実施することができる(例えば、移動または回転させること等によって)。
いくつかのウェアラブルデバイスは、限定されたFOVを有し得る。有利には、いくつかの実施形態では、トーテムは、トーテムによって照明される光パターンを使用して、FOV外のオブジェクトと関連付けられた情報を提供することができる。
第1の側面では、システムであって、ユーザ入力デバイスの発光アセンブリであって、環境内のオブジェクトの情報を提供するために、複数の光パターンを照明するように構成される、発光アセンブリと、発光アセンブリに通信可能に結合され、ユーザの環境内のオブジェクトを識別し、オブジェクトと関連付けられたコンテキスト情報にアクセスし、少なくとも部分的に、コンテキスト情報に基づいて、発光アセンブリによって照明された光パターンの特性を決定し、発光アセンブリに、光パターンに従って照明するように命令するようにプログラムされる、ハードウェアプロセッサとを備える、システム。
付加的考慮点
Claims (129)
- システムであって、
ユーザ入力デバイスの発光アセンブリであって、前記発光アセンブリは、環境内のオブジェクトの情報を提供するために、複数の光パターンを照明するように構成される、発光アセンブリと、
前記発光アセンブリに通信可能に結合されたハードウェアプロセッサであって、
ユーザの環境内のオブジェクトを識別することと、
前記オブジェクトと関連付けられたコンテキスト情報にアクセスすることと、
少なくとも部分的に、前記コンテキスト情報に基づいて、前記発光アセンブリによって照明された光パターンの特性を決定することと、
前記発光アセンブリに、前記光パターンに従って照明するように命令することと
を行うようにプログラムされる、ハードウェアプロセッサと
を備える、システム。 - 前記オブジェクトは、物理的オブジェクトまたは仮想オブジェクトのうちの少なくとも1つを含む、請求項1に記載のシステム。
- 前記仮想オブジェクトのステータスは、ユーザによる前記仮想オブジェクトとの現在の相互作用、前記仮想オブジェクトが新しい情報を受信したかどうか、前記仮想オブジェクトがアイドル状態であるかどうか、または前記仮想オブジェクトがエラー状態であるかどうかのうちの少なくとも1つを含む、請求項2に記載のシステム。
- 前記光パターンの特性は、明度、位置、形状、サイズ、または色のうちの少なくとも1つを含む、請求項1に記載のシステム。
- 前記オブジェクトと関連付けられた前記コンテキスト情報は、前記オブジェクトの場所、前記オブジェクトの緊急度、前記オブジェクトのタイプ、前記オブジェクトの性質、前記オブジェクトと関連付けられた情報の量、または前記ユーザの選好のうちの少なくとも1つを含む、請求項1に記載のシステム。
- 前記システムはさらに、ウェアラブルディスプレイデバイスを備え、前記オブジェクトは、ユーザのビューから不可視である、または前記ウェアラブルディスプレイデバイスを介して外側にあり、前記ハードウェアプロセッサは、前記光パターンのサイズ、形状、または色のうちの少なくとも1つを決定し、前記オブジェクトを位置特定するためのキューをユーザに提供するようにプログラムされる、請求項1に記載のシステム。
- オブジェクトは、仮想コンテンツをユーザに提示するためのウェアラブルシステムのコンポーネントであり、前記光パターンは、前記ウェアラブルシステムのコンポーネントのステータスを示す、請求項1に記載のシステム。
- 前記コンポーネントは、前記ユーザ入力デバイス、ウェアラブルディスプレイデバイス、またはバッテリパックのうちの少なくとも1つを含む、請求項7に記載のシステム。
- 前記ステータスは、バッテリステータス、電力充電ステータス、前記ウェアラブルディスプレイデバイスと前記ユーザ入力デバイスとの間の無線ペアリングステータス、前記ユーザ入力デバイスの較正プロセスのステータス、または前記ウェアラブルディスプレイデバイスのステータスのうちの少なくとも1つを含む、請求項1に記載のシステム。
- 前記光パターンは、前記オブジェクトと関連付けられたアラートまたは情報をエンコードする、請求項1に記載のシステム。
- 前記ステータスは、
ユーザによる前記オブジェクトとの現在の相互作用、
前記オブジェクトが新しい情報を受信したかどうか、
前記オブジェクトがアイドル状態にあるかどうか、または
前記オブジェクトがエラー状態にあるかどうか
のうちの少なくとも1つを含む、請求項1に記載のシステム。 - 前記光パターンの特性は、アプリケーションプログラミングインターフェースを介して、ユーザによって構成可能である、請求項1に記載のシステム。
- 発光ユーザ入力デバイスであって、
ユーザ入力を受け取るように構成されるタッチコンポーネントと、
複数の光パターンを出力するように構成される発光アセンブリであって、前記発光アセンブリは、少なくとも部分的に、前記タッチコンポーネントを囲繞する、発光アセンブリと、
前記タッチコンポーネントおよび前記発光アセンブリに通信可能に結合されたハードウェアプロセッサであって、
コンテキスト情報に基づいて、前記タッチコンポーネントによってサポートされるユーザインターフェース動作を識別することと、
前記ユーザインターフェース動作と関連付けられた第1の光パターンを決定することと、
前記第1の光パターンを有する後光を表示するための命令を生成し、前記発光アセンブリに伝送することと、
ユーザ入力を前記タッチコンポーネント上で受信することと、
前記後光を第2の光パターンで更新し、前記ユーザ入力を反映することと
を行うようにプログラムされる、ハードウェアプロセッサと
を備える、発光ユーザ入力デバイス。 - 前記コンテキスト情報は、
前記ユーザの環境、前記発光ユーザ入力デバイスによってサポートされる入力のタイプ、
前記ハンドヘルドユーザ入力デバイスが相互作用するように構成されるオブジェクトと関連付けられた情報、または
前記ハンドヘルドユーザ入力デバイスと関連付けられたウェアラブルデバイスの特性
のうちの少なくとも1つを含む、請求項13に記載の発光ユーザ入力デバイス。 - 前記発光アセンブリは、光導波路と、LEDのリングとを備える、請求項13に記載の発光ユーザ入力デバイス。
- 前記発光アセンブリは、複数のユーザ入力を受け取るように構成され、前記ハードウェアプロセッサはさらに、少なくとも部分的に、前記光導波路を作動させることによってサポートされる前記複数のユーザ入力に基づいて、後光を表示するようにプログラムされる、請求項13に記載の発光ユーザ入力デバイス。
- 前記ユーザ入力は、スワイプ、タップ、押下、またはタッチジェスチャのうちの少なくとも1つを含む、請求項13に記載の発光ユーザ入力デバイス。
- 前記発光ユーザ入力デバイスは、トーテム、スマートウォッチ、またはスマートフォンのうちの少なくとも1つを含む、請求項13に記載の発光ユーザ入力デバイス。
- 前記第1の光パターンは、ユーザに、前記ユーザインターフェース動作が前記発光ユーザ入力デバイスによってサポートされることのキューを提供する、請求項13に記載の発光ユーザ入力デバイス。
- 前記ハードウェアプロセッサはさらに、
前記コンテキスト情報に基づいて、前記受信されたユーザ入力が不適切なであるかどうかを決定する
ようにプログラムされ、
前記第2の光パターンは、前記受信されたユーザ入力が不適切であることの決定に応答して、前記受信されたユーザ入力が不適切であることの視覚的アラートを提供する、請求項13に記載の発光ユーザ入力デバイス。 - 前記後光の少なくとも一部は、前記第1の光パターンと比較して、前記第2の光パターンにおいてより明るいまたはより大きいように現れる、請求項13に記載の発光ユーザ入力デバイス。
- 前記複数の光パターンの特性は、アプリケーションプログラミングインターフェースを介して、ユーザによって構成可能である、請求項13に記載の発光ユーザ入力デバイス。
- 前記特性は、弧の場所または移動パターン、色、明度、形状、またはサイズのうちの少なくとも1つを含む、請求項22に記載の発光ユーザ入力デバイス。
- 前記第2の光パターンは、前記ユーザ入力に応答して、バッテリステータス、電力充電ステータス、前記ハンドヘルドユーザ入力デバイスと別のコンピューティングデバイスとの間の無線ペアリングステータス、または前記ハンドヘルドユーザ入力デバイスがアイドル状態であるかどうかのうちの少なくとも1つを示す、請求項13に記載の発光ユーザ入力デバイス。
- 方法であって、
ハードウェアプロセッサの制御下で、
コンテキスト情報に基づいて、発光ユーザ入力デバイスによってサポートされるユーザ入力のタイプを識別することであって、前記発光ユーザ入力デバイスは、複数の光パターンを照明するための第1の要素と、ユーザ入力を受信するための第2の要素とを備える、ことと、
前記サポートされるユーザ入力のタイプと関連付けられた第1の光パターンを決定することと、
前記第1の光パターンを有する後光を照明するための命令を生成し、前記第1の要素に伝送することと、
前記発光ユーザ入力デバイス上のユーザ入力に基づいて、第2の光パターンを決定することと、
前記ユーザ入力に応答して、前記後光を前記第2の光パターンに更新することと
を含む、方法。 - 前記第1の要素はさらに、別のユーザ入力を受信するように構成され、前記第1の光パターンを決定するための前記ユーザ入力のタイプは、前記第1の要素によってサポートされる他のユーザ入力と関連付けられる、請求項25に記載の方法。
- 前記コンテキスト情報は、
前記ユーザの環境、前記発光ユーザ入力デバイスによってサポートされる入力のタイプ、
前記ハンドヘルドユーザ入力デバイスが相互作用するように構成されるオブジェクトと関連付けられた情報、または
前記ハンドヘルドユーザ入力デバイスと関連付けられたウェアラブルデバイスの特性
のうちの少なくとも1つを含む、請求項25に記載の方法。 - 前記ユーザ入力のタイプは、スワイプ、タップ、押下、またはタッチ入力のうちの少なくとも1つを含む、請求項25に記載の方法。
- 前記第1の光パターンは、ユーザに、前記ユーザ入力のタイプが前記発光ユーザ入力デバイスによってサポートされることのキューを提供する、請求項25に記載の方法。
- 前記コンテキスト情報に基づいて、前記発光ユーザ入力デバイスによって受信されたユーザ入力が不適切であるかどうかを決定すること
をさらに含み、
前記第2の光パターンは、前記ユーザ入力が不適切であることの決定に応答して、前記ユーザ入力が不適切であることの視覚的アラートを提供する、請求項25に記載の方法。 - 前記後光の少なくとも一部は、前記第1の光パターンと比較して、前記第2の光パターンにおいてより明るいまたはより大きいように現れる、請求項25に記載の方法。
- 発光ユーザ入力デバイスであって、
ユーザ入力を受信するように構成される複数の相互作用可能領域であって、前記複数の相互作用可能領域の少なくとも1つの相互作用可能領域は、前記発光ユーザ入力デバイスの発光アセンブリの一部を含む、複数の相互作用可能領域と、
ハードウェアプロセッサであって、
前記発光ユーザ入力デバイスのユーザの作動を検出することと、
ユーザの作動に対応する前記複数の相互作用可能領域の中の相互作用可能領域を決定することと、
少なくとも、前記作動のタイプおよび前記作動と関連付けられた前記相互作用領域に基づいて、前記ユーザの作動をユーザインターフェース動作を実施するためのユーザ入力に変換することと、
前記ユーザ入力に応答して、前記発光アセンブリに、光パターンを照明するように命令することと
を行うようにプログラムされる、ハードウェアプロセッサと
を備える、発光ユーザ入力デバイス。 - 前記発光ユーザ入力デバイスはさらに、タッチ表面を備え、前記発光アセンブリは、光導波路を備え、前記複数の相互作用可能領域は、前記光導波路と関連付けられた第1の相互作用可能領域と、前記タッチ表面と関連付けられた第2の相互作用可能領域とを備える、請求項32に記載の発光ユーザ入力デバイス。
- 前記ユーザが前記第1の相互作用可能領域を作動させたことの検出に応答して、前記ハードウェアプロセッサは、前記発光アセンブリに、前記第1の相互作用可能領域内の前記ユーザ入力と関連付けられた第1の光パターンを照明させるようにプログラムされ、前記ユーザが前記第2の相互作用可能領域を作動させたことの検出に応答して、前記ハードウェアプロセッサは、前記発光アセンブリに、前記第2の相互作用可能領域内の前記ユーザ入力と関連付けられた第2の光パターンを照明させるようにプログラムされる、請求項33に記載の発光ユーザ入力デバイス。
- 前記光パターンは、少なくとも部分的に、前記発光ユーザ入力デバイスと関連付けられたコンテキスト情報に基づいて決定される、請求項32に記載の発光ユーザ入力デバイス。
- 前記ユーザの作動は、スワイプ、タップ、押下、またはタッチジェスチャのうちの少なくとも1つを含む、請求項32に記載の発光ユーザ入力デバイス。
- 前記光パターンは、色、弧長、または視覚的効果を有する弧状領域を含む、請求項32に記載の発光ユーザ入力デバイス。
- 前記ハードウェアプロセッサはさらに、前記ユーザ入力に基づいて、ウェアラブルデバイスと通信し、前記ウェアラブルデバイスに、ユーザインターフェース動作を実施させるようにプログラムされる、請求項32に記載の発光ユーザ入力デバイス。
- 方法であって、
ハードウェアプロセッサの制御下で、
発光ユーザ入力デバイスのユーザの作動を検出することであって、前記発光ユーザ入力デバイスは、複数の相互作用可能領域を備える、ことと、
ユーザの作動に対応する前記複数の相互作用可能領域の中の相互作用可能領域を決定することと、
少なくとも、前記作動のタイプおよび前記作動と関連付けられた前記相互作用領域に基づいて、前記ユーザの作動をユーザインターフェース動作を実施するためのユーザ入力に変換することと、
前記ユーザ入力に応答して、発光ユーザ入力デバイスの発光アセンブリに、光パターンを照明させることと
を含む、方法。 - 前記複数の相互作用可能領域は、第1のタイプのユーザ入力をサポートする第1の相互作用可能領域と、第2のタイプのユーザ入力をサポートする第2の相互作用可能領域とを備える、請求項39に記載の方法。
- 前記ユーザが前記第1の相互作用可能領域を作動させたことの検出に応答して、前記ハードウェアプロセッサは、前記発光アセンブリに、前記第1の相互作用可能領域内の前記ユーザ入力と関連付けられた第1の光パターンを照明させるようにプログラムされ、前記ユーザが前記第2の相互作用可能領域を作動させたことの検出に応答して、前記ハードウェアプロセッサは、前記発光アセンブリに、前記第2の相互作用可能領域内の前記ユーザ入力と関連付けられた第2の光パターンを照明させるようにプログラムされる、請求項40に記載の方法。
- 前記第1のタイプのユーザ入力または前記第2のタイプのユーザ入力のうちの少なくとも1つは、ウェアラブルシステムとのユーザの相互作用と関連付けられたコンテキスト情報に依存し、前記コンテキスト情報は、ユーザが相互作用しているアプリケーションのタイプ、前記複数の相互作用可能領域によってサポートされる利用可能なユーザ入力、または前記ユーザの仮想環境のうちの少なくとも1つを含む、請求項40に記載の方法。
- 前記発光ユーザ入力デバイスは、1つ以上の相互作用可能領域に分割されるタッチ表面を備える、請求項39に記載の方法。
- 前記光パターンは、少なくとも部分的に、前記発光ユーザ入力デバイスと関連付けられたコンテキスト情報に基づいて決定される、請求項39に記載の方法。
- 前記複数の相互作用可能領域は、前記発光ユーザ入力デバイスの発光アセンブリを含む、請求項39に記載の方法。
- 前記ユーザの作動は、スワイプ、タップ、押下、またはタッチジェスチャのうちの少なくとも1つを含む、請求項39に記載の方法。
- 前記光パターンは、色、弧長、または視覚的効果を有する弧状領域を含む、請求項39に記載の方法。
- 発光ユーザ入力デバイスを較正するためのシステムであって、前記システムは、
環境を結像するように構成される外向きに面した結像システムと、
光パターンを照明するように構成される発光ユーザ入力デバイスと、
前記外向きに面した結像システムおよび前記発光ユーザ入力デバイスと通信するハードウェアプロセッサであって、
第1の姿勢から第2の姿勢への前記発光ユーザ入力デバイスの移動と関連付けられた前記発光ユーザ入力デバイスのセンサによって入手された第1の移動データにアクセスすることと、
前記発光ユーザ入力デバイスの第1の画像を決定することであって、前記第1の画像は、前記発光ユーザ入力デバイスの前記第1の姿勢に対応する光パターンを含む、ことと、
前記外向きに面した結像システムによって入手された前記発光ユーザ入力デバイスの第2の画像を決定することであって、前記第2の画像は、前記発光ユーザ入力デバイスの前記第2の姿勢に対応する光パターンを含む、ことと、
前記第2の画像を分析し、前記発光ユーザ入力デバイスの移動と関連付けられた第2の移動データを計算することと、
前記第1の移動データと前記第2の移動データとの間の相違を検出することと、
前記相違が閾値条件に達することの決定に応答して、前記発光ユーザ入力デバイスのセンサを較正させることと
を行うようにプログラムされる、ハードウェアプロセッサと
を備える、システム。 - 前記第1の姿勢から前記第2の姿勢への前記発光ユーザ入力デバイスの移動は、前記発光ユーザ入力デバイスの位置または配向のうちの少なくとも1つの変化を含む、請求項48に記載のシステム。
- 前記第1の姿勢または前記第2の姿勢は、前記発光ユーザ入力デバイスの基点位置に対応する、請求項48に記載のシステム。
- 前記光パターンは、前記発光ユーザ入力デバイスのタッチ可能部分を囲繞する複数の発光ダイオードによって照明される後光と関連付けられる、請求項48に記載のシステム。
- 前記第2の移動データを計算するために、前記ハードウェアプロセッサは、前記第1の画像および前記第2の画像内の後光の形状の変化を計算するようにプログラムされる、請求項48に記載のシステム。
- 前記発光ユーザ入力デバイスは、拡張現実デバイスとの相互作用のためのトーテムである、請求項48に記載のシステム。
- 前記センサは、前記トーテムの慣性測定ユニット(IMU)の一部であり、前記センサは、ユーザの移動に対する前記トーテムの応答性または前記ユーザの移動と前記IMUの測定との間のマッピングのうちの少なくとも1つを調節することによって較正される、請求項53に記載のシステム。
- 前記トーテムはさらに、視覚的インジケーションをユーザに提供し、前記発光ユーザ入力デバイスを前記第1の姿勢から前記第2の姿勢に移動させるように構成される、請求項53に記載のシステム。
- 前記トーテムは、3自由度を有する、請求項53に記載のシステム。
- 前記ハードウェアプロセッサは、コンピュータビジョンアルゴリズムを適用し、前記第1の画像および前記第2の画像を分析し、前記第1の画像および前記第2の画像内の光パターンを識別するようにプログラムされる、請求項48に記載のシステム。
- 前記発光ユーザ入力デバイスは、前記発光ユーザ入力デバイスの較正が完了されたことの決定に応答して、別の光パターンを照明することができる、請求項48に記載のシステム。
- 前記ハードウェアプロセッサは、前記較正のタイプを決定するようにプログラムされ、前記発光ユーザ入力デバイスによって照明される光パターンは、前記較正のタイプに対応する、請求項48に記載のシステム。
- 発光ユーザ入力デバイスを較正する方法であって、前記方法は、
ハードウェアプロセッサの制御下で、
ある姿勢における発光ユーザ入力デバイスの移動データを受信することであって、前記移動データは、前記発光ユーザ入力デバイスのセンサによって入手される、ことと、
前記ある姿勢における前記発光ユーザ入力デバイスの画像を受信することと、
前記画像を分析し、前記発光ユーザ入力デバイスによって照明される光パターンの形状を識別することと、
前記移動データに基づいて、前記ある姿勢における前記発光ユーザ入力デバイスの第1の位置または第1の配向のうちの少なくとも1つを計算することと、
前記光パターンの形状に基づいて、前記ある姿勢における前記発光ユーザ入力デバイスの第2の位置または第2の配向のうちの少なくとも1つを計算することと、
前記第1の位置と前記第2の位置または前記第1の配向と前記第2の配向との間の相違を決定することと、
前記相違が閾値条件に達することの決定に応答して、前記発光ユーザ入力デバイスのセンサを較正することと
を含む、方法。 - 前記第1の位置、前記第1の配向、前記第2の位置、または前記第2の配向は、基点姿勢を参照して計算される、請求項60に記載の方法。
- 前記画像内の前記光パターンの形状は、卵形である一方、前記基点姿勢における前記光パターンの形状は、円形である、請求項60に記載の方法。
- 前記光パターンの位置または移動パターンのうちの少なくとも1つは、前記較正されているセンサのタイプに対応する、請求項60に記載の方法。
- 前記較正が成功したことの決定に応答して、視覚的、聴覚的、または触覚的フィードバックのうちの少なくとも1つを提供することをさらに含む、請求項60に記載の方法。
- 前記センサを較正することは、ユーザの移動に対する前記センサの応答性または前記ユーザの移動と前記センサの測定との間のマッピングのうちの少なくとも1つを調節することを含む、請求項60に記載の方法。
- 発光ユーザ入力デバイスを較正するためのシステムであって、前記システムは、
環境を結像するように構成される外向きに面した結像システムと、
前記外向きに面した結像システムと通信するハードウェアプロセッサであって、
前記環境の画像を受信することと、
前記画像を分析し、発光ユーザ入力デバイスを識別することと、
前記発光ユーザ入力デバイスの第1の姿勢および照明される後光の光パターンの第1の外観を決定することと、
少なくとも部分的に、前記画像の分析に基づいて、前記照明される後光の光パターンの第2の外観を識別することと、
前記発光ユーザ入力デバイスの姿勢に対する第1の変化を決定することと、
前記発光ユーザ入力デバイスによって測定された前記発光ユーザ入力デバイスの移動データを受信することと、
少なくとも部分的に、前記画像の分析に基づいて、前記発光ユーザ入力デバイスの姿勢に対する第2の変化を計算することと、
前記第1の変化と前記第2の変化との間の差異を計算し、前記差異が閾値に達するかどうかを決定することと、
前記差異が前記閾値条件を超えたことの決定に応答して、前記発光ユーザ入力デバイスのセンサを較正することと
を行うようにプログラムされる、ハードウェアプロセッサと
を備える、システム。 - 前記発光ユーザ入力デバイスの姿勢は、前記発光ユーザ入力デバイスの位置および配向を含む、請求項66に記載のシステム。
- 前記発光ユーザ入力デバイスは、トーテム、スマートウォッチ、またはスマートフォンのうちの少なくとも1つを含み、前記センサは、IMUである、請求項66に記載のシステム。
- 前記差異が前記閾値を超えないことの決定に応答して、前記ハードウェアプロセッサは、前記センサが較正されていることのインジケーションを提供するようにプログラムされる、請求項66に記載のシステム。
- 前記インジケーションは、前記発光ユーザ入力デバイス上の視覚的、聴覚的、または触覚的フィードバックを含む、請求項69に記載のシステム。
- 前記第1の位置は、前記発光ユーザ入力デバイスの基点位置である、請求項66に記載のシステム。
- 前記発光ユーザ入力デバイスはさらに、前記ユーザ入力デバイスを前記第1の姿勢および前記第2の姿勢を含む姿勢に位置付けるように、前記発光ユーザ入力デバイスのユーザを誘導するための一連の光パターンを照明するように構成される、請求項66に記載のシステム。
- 少なくとも部分的に、前記画像の分析に基づいて、前記発光ユーザ入力デバイスの姿勢に対する第2の変化を計算するために、前記ハードウェアプロセッサは、前記第1の外観における前記光パターンの形状に対する前記第2の外観における前記光パターンの形状の変形を決定するようにプログラムされる、請求項66に記載のシステム。
- 前記発光ユーザ入力デバイスは、仮想コンテンツを拡張現実、仮想現実、または複合現実環境内に提示するためのウェアラブルディスプレイをさらに備えるウェアラブルシステムの一部である、請求項66に記載のシステム。
- 前記センサを較正するために、前記ハードウェアプロセッサは、ユーザの移動に対する前記センサの応答性または前記ユーザの移動と前記センサの測定との間のマッピングのうちの少なくとも1つを調節するようにプログラムされる、請求項66に記載のシステム。
- 発光ユーザ入力デバイスを較正するための方法であって、前記方法は、
発光アセンブリと、ハードウェアプロセッサとを備える発光ユーザ入力デバイスの制御下で、
前記発光ユーザ入力デバイスの第1の姿勢を決定することと、
前記発光アセンブリに、前記発光ユーザ入力デバイスを第2の姿勢に移動させるようにユーザを誘導するための第1の光パターンを照明させることと、
前記発光ユーザ入力デバイスが前記第2の姿勢に移動されたことの決定に応答して、
前記発光ユーザ入力デバイスの姿勢データを入手することと、
少なくとも部分的に、前記姿勢データに基づいて、前記発光ユーザ入力デバイスを較正することと、
ユーザに、前記較正プロセスが完了されたことのインジケーションを提供することと
を含む、方法。 - 前記第1の姿勢を決定することは、少なくとも部分的に、前記発光ユーザ入力デバイスの慣性測定ユニット(IMU)から入手されたデータに基づく、請求項76に記載の方法。
- 前記インジケーションは、聴覚的、視覚的、または触覚的インジケーションのうちの少なくとも1つを含む、請求項76に記載の方法。
- 前記インジケーションは、第2の光パターンを含む、請求項76に記載の方法。
- 前記姿勢データは、前記発光ユーザ入力デバイスの位置または配向データのうちの少なくとも1つを含む、請求項76に記載の方法。
- 前記発光ユーザ入力デバイスの姿勢データは、前記発光ユーザ入力デバイスが複数の姿勢にあるときに入手されたデータを含む、請求項76に記載の方法。
- 前記発光アセンブリに、較正プロセスの開始を示す第3の光パターンを照明させることをさらに含む、請求項76に記載の方法。
- 発光ユーザ入力デバイスを較正するためのシステムであって、前記システムは、
前記発光ユーザ入力デバイスの移動データを入手するように構成される1つ以上のセンサと、
複数の光パターンを出力するように構成される前記発光ユーザ入力デバイスの発光アセンブリと、
ハードウェアプロセッサであって、
前記発光ユーザ入力デバイスをある姿勢に位置付けるための第1のインジケーションをユーザに提供することと、
前記ある姿勢への前記発光ユーザ入力デバイスの移動データを入手することと、
少なくとも部分的に、前記移動データに基づいて、前記発光ユーザ入力デバイスを較正することと、
ユーザに、前記較正プロセスが完了されたことのインジケーションを提供することと
を行うようにプログラムされる、ハードウェアプロセッサと
を備える、システム。 - 前記第1のインジケーションは、光パターンを含み、その場所、移動、または組み合わせは、ユーザに、前記発光ユーザ入力デバイスを前記ある姿勢に移動させるためのガイドを提供する、請求項83に記載のシステム。
- 前記発光ユーザ入力デバイスは、拡張または複合現実環境と相互作用するためのウェアラブルシステムの一部であり、前記第1のインジケーションは、ユーザによって位置付けられるべき前記トーテムの姿勢を示す前記ウェアラブルシステムの頭部搭載型ディスプレイによって提供される仮想画像を含む、請求項83に記載のシステム。
- 前記ハードウェアプロセッサはさらに、
前記発光ユーザ入力デバイスが較正されていることの決定に応答して、前記発光ユーザ入力デバイスが較正されていることを知らせる第2のインジケーションを提供する、または
前記発光ユーザ入力デバイスが較正されていないことの決定に応答して、前記発光ユーザ入力デバイスの較正を継続する
ようにプログラムされる、請求項83に記載のシステム。 - 前記ハードウェアプロセッサはさらに、前記発光ユーザ入力デバイスのための較正プロセスを開始するための開始条件を検出するようにプログラムされる、請求項83に記載のシステム。
- 前記発光ユーザ入力デバイスを較正するために、前記ハードウェアプロセッサは、前記ある姿勢における前記発光ユーザ入力デバイスを含む画像にアクセスし、前記移動データおよび前記画像を分析し、前記移動データから計算されたものと前記画像から決定されたものとの間の前記発光ユーザ入力デバイスの位置または配向のうちの少なくとも1つの相違を識別するようにプログラムされる、請求項83に記載のシステム。
- 前記発光ユーザ入力デバイスは、タッチ表面を備えるトーテムを備え、前記発光アセンブリは、前記タッチ表面に隣接して位置付けられる、請求項83に記載のシステム。
- 発光ユーザ入力デバイスをペアリングするためのウェアラブルデバイスであって、前記ウェアラブルデバイスは、
環境を結像するように構成される外向きに面した結像システムと、
前記外向きに面した結像システムと通信するハードウェアプロセッサであって、
前記外向きに面した結像システムによって入手された画像を受信することであって、前記画像は、発光ユーザ入力デバイスによって照明された光パターンを含む、ことと、
前記ウェアラブルデバイスとペアリングされるべき発光ユーザ入力デバイスを識別することと、
前記画像を分析し、前記発光ユーザ入力デバイスとウェアラブルデバイスのペアリングと関連付けられた情報をエンコードする前記光パターンを識別することと、
前記発光ユーザ入力デバイスと前記ウェアラブルデバイスをペアリングするために、前記光パターン内にエンコードされた情報を抽出することと、
少なくとも部分的に、前記抽出された情報に基づいて、前記発光ユーザ入力デバイスとウェアラブルデバイスをペアリングすることと
を行うようにプログラムされる、ハードウェアプロセッサと
を備える、ウェアラブルデバイス。 - 前記ハードウェアプロセッサはさらに、
前記発光ユーザ入力デバイスと前記ウェアラブルデバイスとの間のペアリングが成功したかどうかを決定することと、
前記ペアリングが成功したことの決定に応答して、前記発光ユーザ入力デバイスに、ペアリング成功を示す別の光パターンを照明するように命令することと
を行うようにプログラムされる、請求項90に記載のウェアラブルデバイス。 - 前記ハードウェアプロセッサはさらに、前記ペアリングが成功したことの決定に応答して、無線接続を介して、前記発光ユーザ入力デバイスと通信するようにプログラムされる、請求項90に記載のウェアラブルデバイス。
- 前記無線接続は、Bluetooth(登録商標)接続を含む、請求項92に記載のウェアラブルデバイス。
- 前記光パターンによってエンコードされる情報は、前記発光ユーザ入力デバイスのデバイス情報を含む、請求項90に記載のウェアラブルデバイス。
- 前記光パターンは、前記情報を2進数形態でエンコードする、請求項90に記載のウェアラブルデバイス。
- 前記光パターンは、前記ペアリングと関連付けられた情報をエンコードする1つ以上の色を含む、請求項90に記載のウェアラブルデバイス。
- 前記光パターンの一部は、電磁スペクトルの非可視部分内の光を含む、請求項90に記載のウェアラブルデバイス。
- 前記ウェアラブルデバイスは、仮想コンテンツを複合現実環境内に提示するための頭部搭載型ディスプレイを備え、外向きに面した結像システムは、前記頭部搭載型ディスプレイに搭載されるカメラを備える、請求項90に記載のウェアラブルシステム。
- 発光ユーザ入力デバイスをペアリングするための方法であって、前記方法は、
ハードウェアプロセッサの制御下で、
ペアリングプロセスを発光ユーザ入力デバイスと電子デバイスとの間で開始することと、
カメラによって入手された画像にアクセスすることであって、前記画像は、前記発光ユーザ入力デバイスによって照明された光パターンを含む、ことと、
前記電子デバイスとペアリングされるべき前記発光ユーザ入力デバイスを識別することと、
前記画像を分析し、前記発光ユーザ入力デバイスと前記電子デバイスのペアリングと関連付けられた情報をエンコードする前記光パターンを識別することと、
前記発光ユーザ入力デバイスと前記電子デバイスをペアリングするために、前記光パターン内にエンコードされた情報を抽出することと、
少なくとも部分的に、前記抽出された情報に基づいて、前記発光ユーザ入力デバイスと前記電子デバイスをペアリングすることと
を含む、方法。 - 前記電子デバイスは、仮想コンテンツを複合現実環境内に提示するためのウェアラブルシステムのコンポーネントを含む、請求項99に記載の方法。
- 前記電子デバイスは、別のユーザ入力デバイスまたは頭部搭載型ディスプレイを含む、請求項100に記載の方法。
- 前記ペアリングプロセスが成功したことの決定に応答して、前記発光ユーザ入力デバイスと前記電子デバイスとの間の無線接続を確立することをさらに含む、請求項99に記載の方法。
- 前記光パターンによってエンコードされる情報は、前記発光ユーザ入力デバイスのデバイス情報を含み、前記デバイス情報は、デバイス識別子、前記発光ユーザ入力デバイスに関する識別情報、または前記発光ユーザ入力デバイスと前記電子デバイスをペアリングするためのキーのうちの少なくとも1つを含む、請求項99に記載の方法。
- 前記光パターンは、前記情報を2進数形態でエンコードする、請求項103に記載の方法。
- 前記光パターンは、前記ペアリングプロセスの情報をエンコードする1つ以上の色を含む、請求項99に記載の方法。
- 前記光パターンの一部は、電磁スペクトルの非可視部分内の光を含む、請求項99に記載の方法。
- 発光ユーザ入力デバイスをペアリングするためのシステムであって、前記システムは、
光パターンを出力するように構成される複数の発光ダイオード(LED)と、
ハードウェアプロセッサであって、
電子デバイスとのペアリングプロセスを開始することと、
前記複数のLEDの1つ以上のLEDに、前記ペアリングプロセスに関する情報をエンコードする第1の光パターンを照明させることと、
前記電子デバイスが正常にペアリングされたことの決定に応答して、前記ペアリングが成功したことを示す第2の光パターンを照明することと
を行うようにプログラムされる、ハードウェアプロセッサと
を備える、システム。 - 前記第1の光パターンは、前記ユーザ入力デバイスと関連付けられたデバイス情報または他のコンピューティングデバイスにペアリングプロセスを開始させるトリガメッセージのうちの少なくとも1つをエンコードする、請求項107に記載のシステム。
- 前記ハードウェアプロセッサは、
前記ペアリングプロセスの間、応答を前記電子デバイスから受信することと、
前記複数のLEDの第2の1つ以上のLEDに、前記応答に対する返信における返信メッセージをエンコードする第3の光パターンを照明させることと
を行うようにプログラムされる、請求項107に記載のシステム。 - 前記複数のLEDの1つ以上のLEDの照明は、前記ペアリングプロセスの情報を2進数形態でエンコードする、請求項107に記載のシステム。
- 前記1つ以上のLEDの照明と関連付けられた色は、前記ペアリングプロセスの情報をエンコードする、請求項107に記載のシステム。
- 前記第1の光パターンまたは前記第2の光パターンの一部は、電磁スペクトルの非可視部分内の光を含む、請求項107に記載のシステム。
- 方法であって、
複数の光パターンを照明するための発光アセンブリを備える第1の電子デバイスのハードウェアプロセッサの制御下で、
前記第1の電子デバイスと第2の電子デバイスとの間の通信を開始することと、
前記第1の電子デバイスに、前記通信のためのメッセージをエンコードする光パターンを照明させることと、
応答を前記第2の電子デバイスから受信することと、
少なくとも部分的に、前記第2の電子デバイスからの応答に基づいて、インジケーションを前記第1の電子デバイスのユーザに提供させることと
を含む、方法。 - 前記通信は、前記第1の電子デバイスと前記第2の電子デバイスとの間のペアリングプロセスを含む、請求項113に記載の方法。
- 前記第1の光パターンは、前記ユーザ入力デバイスと関連付けられたデバイス情報または他のコンピューティングデバイスにペアリングプロセスを開始させるトリガメッセージのうちの少なくとも1つをエンコードする、請求項114に記載の方法。
- 前記インジケーションは、前記第1の電子デバイスおよび前記第2の電子デバイスが正常にペアリングされたことの決定に応答して、前記第1の電子デバイスと前記第2の電子デバイスとの間のペアリングが完了されたことを示す前記第1の電子デバイスによって照明される第2の光パターンを含む、請求項114に記載の方法。
- 前記インジケーションは、前記応答に対する返信における返信メッセージをエンコードする前記第1の電子デバイスによって照明される第3の光パターンを含む、請求項113に記載の方法。
- 前記第1の光パターンは、情報を前記メッセージ内に2進数形態でエンコードする、請求項113に記載の方法。
- 前記光パターンは、前記通信のメッセージをさらにエンコードする1つ以上の色を含む、請求項113に記載の方法。
- 発光ユーザ入力デバイスであって、
ユーザ入力を受信するように構成されるタッチパッドアセンブリであって、前記タッチパッドアセンブリは、
タッチ表面と、
前記タッチ表面に結合されるタッチセンサであって、前記タッチセンサの少なくとも一部は、前記タッチ表面の下にあり、前記タッチ表面の作動を検出するように構成される、タッチセンサと、
光学拡散要素および複数の光照明要素を備える発光アセンブリであって、前記発光アセンブリは、前記タッチセンサおよび前記タッチ表面に結合され、複数の光パターンを表示するように構成される、発光アセンブリと、
前記発光アセンブリおよび前記タッチセンサに結合される印刷回路基板と、
を備える、タッチパッドアセンブリと、
前記タッチパッドアセンブリを支持するための本体と
を備える、発光ユーザ入力デバイス。 - 前記光学拡散要素の少なくとも一部は、前記タッチセンサ上にオーバーレイされ、前記タッチセンサはさらに、前記光学拡散要素の作動を検出するように構成される、請求項120に記載の発光ユーザ入力デバイス。
- 前記光学拡散要素は、光導波路を備える、請求項120に記載の発光ユーザ入力デバイス。
- 前記光学拡散要素は、前記タッチ表面を実質的に囲繞する、請求項120に記載の発光ユーザ入力デバイス。
- 前記タッチパッドアセンブリはさらに、前記発光アセンブリ、前記タッチ表面、および前記タッチセンサを保持するためのアーマチュアを備える、請求項120に記載の発光ユーザ入力デバイス。
- 前記複数の光照明要素は、発光ダイオードを備える、請求項120に記載の発光ユーザ入力デバイス。
- 複合現実コンテンツを提示するように構成されたウェアラブルデバイスとの無線接続を確立するように構成される接続インターフェースをさらに備える、請求項120に記載の発光ユーザ入力デバイス。
- 前記本体は、前記タッチパッドアセンブリを支持するための上側部分と、基部に除去可能に搭載されるように構成される底部部分とを有する、請求項120に記載の発光ユーザ入力デバイス。
- 前記本体はさらに、ユーザ相互作用のために、トリガ、バンパ、またはホームボタンのうちの少なくとも1つを含む、請求項120に記載の発光ユーザ入力デバイス。
- 前記複数の光照明要素の照明を制御するようにプログラムされるハードウェアプロセッサをさらに備える、請求項120に記載の発光ユーザ入力デバイス。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023008031A JP7335462B2 (ja) | 2017-04-27 | 2023-01-23 | 発光ユーザ入力デバイス |
JP2023132794A JP7385078B1 (ja) | 2017-04-27 | 2023-08-17 | 発光ユーザ入力デバイス |
JP2023180164A JP2023179746A (ja) | 2017-04-27 | 2023-10-19 | 発光ユーザ入力デバイス |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762490863P | 2017-04-27 | 2017-04-27 | |
US62/490,863 | 2017-04-27 | ||
PCT/US2018/029988 WO2018201067A1 (en) | 2017-04-27 | 2018-04-27 | Light-emitting user input device |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023008031A Division JP7335462B2 (ja) | 2017-04-27 | 2023-01-23 | 発光ユーザ入力デバイス |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2020518902A true JP2020518902A (ja) | 2020-06-25 |
JP2020518902A5 JP2020518902A5 (ja) | 2021-05-27 |
JP7231556B2 JP7231556B2 (ja) | 2023-03-01 |
Family
ID=63916641
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019556946A Active JP7231556B2 (ja) | 2017-04-27 | 2018-04-27 | 発光ユーザ入力デバイス |
JP2023008031A Active JP7335462B2 (ja) | 2017-04-27 | 2023-01-23 | 発光ユーザ入力デバイス |
JP2023132794A Active JP7385078B1 (ja) | 2017-04-27 | 2023-08-17 | 発光ユーザ入力デバイス |
JP2023180164A Pending JP2023179746A (ja) | 2017-04-27 | 2023-10-19 | 発光ユーザ入力デバイス |
Family Applications After (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023008031A Active JP7335462B2 (ja) | 2017-04-27 | 2023-01-23 | 発光ユーザ入力デバイス |
JP2023132794A Active JP7385078B1 (ja) | 2017-04-27 | 2023-08-17 | 発光ユーザ入力デバイス |
JP2023180164A Pending JP2023179746A (ja) | 2017-04-27 | 2023-10-19 | 発光ユーザ入力デバイス |
Country Status (9)
Country | Link |
---|---|
US (5) | US11163416B2 (ja) |
EP (3) | EP3616040B1 (ja) |
JP (4) | JP7231556B2 (ja) |
KR (1) | KR102472428B1 (ja) |
CN (2) | CN110832439B (ja) |
AU (1) | AU2018258679B2 (ja) |
CA (1) | CA3059209A1 (ja) |
IL (2) | IL270146B2 (ja) |
WO (1) | WO2018201067A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022149989A (ja) * | 2021-03-25 | 2022-10-07 | 株式会社ソニー・インタラクティブエンタテインメント | 入力デバイス |
Families Citing this family (75)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
USD831652S1 (en) * | 2015-08-20 | 2018-10-23 | Brunswick Corporation | Animated responsive display on a joystick |
WO2017093996A1 (en) * | 2015-12-02 | 2017-06-08 | Hisep Technology Ltd. | Directionally awareness of wireless sensor nodes |
CN117198277A (zh) | 2016-08-12 | 2023-12-08 | 奇跃公司 | 单词流注释 |
US10496216B2 (en) | 2016-11-09 | 2019-12-03 | Dell Products L.P. | Information handling system capacitive touch totem with optical communication support |
US11163416B2 (en) | 2017-04-27 | 2021-11-02 | Magic Leap, Inc. | Light-emitting user input device for calibration or pairing |
US10621751B2 (en) * | 2017-06-16 | 2020-04-14 | Seiko Epson Corporation | Information processing device and computer program |
US10365710B2 (en) * | 2017-06-23 | 2019-07-30 | Seiko Epson Corporation | Head-mounted display device configured to display a visual element at a location derived from sensor data and perform calibration |
US10782793B2 (en) * | 2017-08-10 | 2020-09-22 | Google Llc | Context-sensitive hand interaction |
US10976811B2 (en) * | 2017-08-11 | 2021-04-13 | Microsoft Technology Licensing, Llc | Eye-tracking with MEMS scanning and reflected light |
US10970425B2 (en) | 2017-12-26 | 2021-04-06 | Seiko Epson Corporation | Object detection and tracking |
US10459528B2 (en) | 2018-02-28 | 2019-10-29 | Dell Products L.P. | Information handling system enhanced gesture management, control and detection |
EP4212222A1 (en) | 2018-03-07 | 2023-07-19 | Magic Leap, Inc. | Visual tracking of peripheral devices |
US11042226B2 (en) * | 2018-04-02 | 2021-06-22 | Microsoft Technology Licensing, Llc | Constellation-based augmentation of mouse form-factor for virtual reality applications |
US10318811B1 (en) * | 2018-04-22 | 2019-06-11 | Bubbler International Llc | Methods and systems for detecting objects by non-visible radio frequencies and displaying associated augmented reality effects |
US10866634B2 (en) | 2018-06-19 | 2020-12-15 | Sony Interactive Entertainment Inc. | Eye tracking system with holographic film decoder |
US10795502B2 (en) | 2018-06-28 | 2020-10-06 | Dell Products L.P. | Information handling system touch device with adaptive haptic response |
US10852853B2 (en) | 2018-06-28 | 2020-12-01 | Dell Products L.P. | Information handling system touch device with visually interactive region |
US10817077B2 (en) | 2018-06-28 | 2020-10-27 | Dell Products, L.P. | Information handling system touch device context aware input tracking |
US10664101B2 (en) | 2018-06-28 | 2020-05-26 | Dell Products L.P. | Information handling system touch device false touch detection and mitigation |
US10761618B2 (en) * | 2018-06-28 | 2020-09-01 | Dell Products L.P. | Information handling system touch device with automatically orienting visual display |
US10635199B2 (en) | 2018-06-28 | 2020-04-28 | Dell Products L.P. | Information handling system dynamic friction touch device for touchscreen interactions |
USD918176S1 (en) | 2018-07-24 | 2021-05-04 | Magic Leap, Inc. | Totem controller having an illumination region |
USD930614S1 (en) | 2018-07-24 | 2021-09-14 | Magic Leap, Inc. | Totem controller having an illumination region |
USD924204S1 (en) | 2018-07-24 | 2021-07-06 | Magic Leap, Inc. | Totem controller having an illumination region |
WO2020028826A1 (en) | 2018-08-02 | 2020-02-06 | Firefly Dimension, Inc. | System and method for human interaction with virtual objects |
US11287526B2 (en) * | 2018-11-21 | 2022-03-29 | Microsoft Technology Licensing, Llc | Locating spatialized sounds nodes for echolocation using unsupervised machine learning |
WO2020116529A1 (ja) * | 2018-12-07 | 2020-06-11 | 株式会社ソニー・インタラクティブエンタテインメント | 発光制御装置、操作デバイス、発光制御方法及びプログラム |
CN113164813A (zh) * | 2018-12-07 | 2021-07-23 | 索尼互动娱乐股份有限公司 | 输入设备 |
US11107390B2 (en) * | 2018-12-21 | 2021-08-31 | Johnson Controls Technology Company | Display device with halo |
CN112809709B (zh) * | 2019-01-25 | 2022-12-02 | 北京妙趣伙伴科技有限公司 | 机器人及其操作系统、控制装置、控制方法及存储介质 |
TWI725574B (zh) * | 2019-02-22 | 2021-04-21 | 宏達國際電子股份有限公司 | 頭戴式顯示裝置以及眼球追蹤游標的顯示方法 |
US10838486B2 (en) * | 2019-02-28 | 2020-11-17 | Microsoft Technology Licensing, Llc | Virtual reality controller |
USD914722S1 (en) * | 2019-04-25 | 2021-03-30 | Samsung Electronics Co., Ltd. | Display screen or portion thereof with graphical user interface |
US11210932B2 (en) * | 2019-05-21 | 2021-12-28 | Apple Inc. | Discovery of and connection to remote devices |
US11086398B2 (en) * | 2019-06-07 | 2021-08-10 | Microsoft Technology Licensing, Llc | Haptic rendering |
GB2584721B (en) * | 2019-06-13 | 2023-05-10 | Yoto Ltd | An interactive apparatus |
KR102570009B1 (ko) * | 2019-07-31 | 2023-08-23 | 삼성전자주식회사 | Ar 객체 생성 방법 및 전자 장치 |
US10931002B1 (en) | 2019-09-23 | 2021-02-23 | Disney Enterprises, Inc. | Light transmitting wearable device with transparent and translucent components |
US11861802B2 (en) | 2019-11-11 | 2024-01-02 | Spin Master Ltd. | Augmented reality system |
WO2021108327A1 (en) * | 2019-11-26 | 2021-06-03 | Magic Leap, Inc. | Enhanced eye tracking for augmented or virtual reality display systems |
JP2021086586A (ja) * | 2019-11-29 | 2021-06-03 | キヤノン株式会社 | 表示制御装置及びその制御方法 |
US11687778B2 (en) | 2020-01-06 | 2023-06-27 | The Research Foundation For The State University Of New York | Fakecatcher: detection of synthetic portrait videos using biological signals |
WO2021171915A1 (ja) * | 2020-02-28 | 2021-09-02 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | スマート窓装置、映像表示方法及びプログラム |
CN113384870B (zh) * | 2020-03-13 | 2023-11-03 | 致伸科技股份有限公司 | 摇杆模块 |
WO2022170223A1 (en) * | 2021-02-08 | 2022-08-11 | Multinarity Ltd | User interactions in extended reality |
US11573644B2 (en) * | 2020-04-21 | 2023-02-07 | Hyundai Mobis Co., Ltd. | Apparatus and method for recognizing gesture |
US11582409B2 (en) * | 2020-06-29 | 2023-02-14 | Snap Inc. | Visual-inertial tracking using rolling shutter cameras |
USD938988S1 (en) * | 2020-06-30 | 2021-12-21 | Spotify Ab | Display screen with graphical user interface |
CN111783660B (zh) * | 2020-07-01 | 2023-11-10 | 业成科技(成都)有限公司 | 眼动追踪装置及应用其的电子装置 |
JP7545564B2 (ja) | 2020-07-15 | 2024-09-04 | マジック リープ, インコーポレイテッド | 非球面角膜モデルを使用した眼追跡 |
EP4181993A4 (en) | 2020-07-16 | 2024-08-07 | Ventec Life Systems Inc | SYSTEM AND METHOD FOR CONCENTRATION OF GAS |
US11931689B2 (en) | 2020-07-16 | 2024-03-19 | Ventec Life Systems, Inc. | System and method for concentrating gas |
US11320896B2 (en) * | 2020-08-03 | 2022-05-03 | Facebook Technologies, Llc. | Systems and methods for object tracking using fused data |
US11520152B1 (en) * | 2020-08-06 | 2022-12-06 | Apple Inc. | Head-mounted display systems with gaze tracker alignment monitoring |
US11467403B2 (en) * | 2020-08-20 | 2022-10-11 | Htc Corporation | Operating method and electronic system |
WO2022086002A1 (en) * | 2020-10-20 | 2022-04-28 | Samsung Electronics Co., Ltd. | Waveguide structure with segmented diffractive optical elements and near-eye display apparatus employing the same |
WO2022093219A1 (en) * | 2020-10-28 | 2022-05-05 | Hewlett-Packard Development Company, L.P. | Virtual reality headset with physical object representation |
US11461991B2 (en) * | 2020-12-30 | 2022-10-04 | Imagine Technologies, Inc. | Method of developing a database of controllable objects in an environment |
EP4288950A1 (en) | 2021-02-08 | 2023-12-13 | Sightful Computers Ltd | User interactions in extended reality |
JP2024507749A (ja) | 2021-02-08 | 2024-02-21 | サイトフル コンピューターズ リミテッド | エクステンデッドリアリティにおけるコンテンツ共有 |
JP2024506630A (ja) | 2021-02-08 | 2024-02-14 | サイトフル コンピューターズ リミテッド | 生産性のためのエクステンデッド・リアリティ |
EP4059582A1 (en) * | 2021-03-16 | 2022-09-21 | UDU ApS | Mobile handheld gaming controller |
US11838991B2 (en) * | 2021-05-26 | 2023-12-05 | Microsoft Technology Licensing, Llc | Peer-to-peer communication via smart wearables |
WO2023009580A2 (en) | 2021-07-28 | 2023-02-02 | Multinarity Ltd | Using an extended reality appliance for productivity |
US20230062244A1 (en) * | 2021-09-01 | 2023-03-02 | Qualcomm Incorporated | Extended reality control of smart devices |
CN114019031B (zh) * | 2021-09-13 | 2023-10-13 | 上海工程技术大学 | 力触觉系统主端操作机构及力触觉核电装备运维装置 |
JP2023042612A (ja) * | 2021-09-15 | 2023-03-28 | オムロン株式会社 | 遊技機用操作ボタンおよびこれを備えた遊技機用操作デッキ |
WO2023064342A1 (en) * | 2021-10-12 | 2023-04-20 | Tandem Diabetes Care, Inc. | Systems and method of pairing an infusion pump with a remote control device |
US11948263B1 (en) | 2023-03-14 | 2024-04-02 | Sightful Computers Ltd | Recording the complete physical and extended reality environments of a user |
US20230334795A1 (en) | 2022-01-25 | 2023-10-19 | Multinarity Ltd | Dual mode presentation of user interface elements |
US12026325B2 (en) | 2022-08-17 | 2024-07-02 | Apple Inc. | Handheld input devices with sleeves |
US12079442B2 (en) | 2022-09-30 | 2024-09-03 | Sightful Computers Ltd | Presenting extended reality content in different physical environments |
WO2024112911A1 (en) * | 2022-11-23 | 2024-05-30 | Meta Platforms Technologies, Llc | Arrangements of illumination sources within and outside of a digit-occluded region of a top cover of a handheld controller to assist with positional tracking of the controller by an artificial-reality system, and systems and methods of use thereof |
US20240233207A1 (en) * | 2023-01-05 | 2024-07-11 | Dell Products L.P. | Aggregated color palette generation based on user context and machine learning |
CN117440554B (zh) * | 2023-12-20 | 2024-04-02 | 深圳市正远科技有限公司 | 基于数字化实现led光源的场景建模方法及系统 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008521136A (ja) * | 2004-11-17 | 2008-06-19 | アトルア テクノロジーズ インコーポレイテッド | 入力システム及び電子システム構成方法 |
JP2008541222A (ja) * | 2005-06-02 | 2008-11-20 | サムスン エレクトロニクス カンパニー リミテッド | ユーザ命令を3次元的に入力可能な電子装置 |
JP2010015535A (ja) * | 2008-06-02 | 2010-01-21 | Sony Corp | 入力装置、制御システム、ハンドヘルド装置及び校正方法 |
JP2011024613A (ja) * | 2009-07-21 | 2011-02-10 | Sony Computer Entertainment Inc | ゲーム装置 |
JP2013515999A (ja) * | 2009-12-24 | 2013-05-09 | 株式会社ソニー・コンピュータエンタテインメント | 無線デバイスのペアリング及びグルーピング方法 |
JP2015072582A (ja) * | 2013-10-02 | 2015-04-16 | 三星電子株式会社Samsung Electronics Co.,Ltd. | ポインティング装置、ポインティング方法、及び、ポインティング装置用プログラム |
US20160062489A1 (en) * | 2014-09-01 | 2016-03-03 | Yinbo Li | Multi-surface controller |
WO2017048519A1 (en) * | 2015-09-16 | 2017-03-23 | Google Inc. | Touchscreen hover detection in an augmented and/or virtual reality environment |
JP2017511082A (ja) * | 2014-01-31 | 2017-04-13 | ユースクエア ソフト インコーポレーテッド | 移植可能なプロセッシングとアプリケーション実行の装置および方法 |
Family Cites Families (99)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6222525B1 (en) | 1992-03-05 | 2001-04-24 | Brad A. Armstrong | Image controllers with sheet connected sensors |
US5704151A (en) * | 1995-03-24 | 1998-01-06 | James Paul West | Portable battery-powered safety lock |
US5670988A (en) | 1995-09-05 | 1997-09-23 | Interlink Electronics, Inc. | Trigger operated electronic device |
USD432131S (en) | 1999-12-17 | 2000-10-17 | Microsoft Corporation | Track ball and glow ring for a computer input device |
WO2001056007A1 (en) * | 2000-01-28 | 2001-08-02 | Intersense, Inc. | Self-referenced tracking |
JP4292927B2 (ja) | 2003-09-16 | 2009-07-08 | カシオ計算機株式会社 | ペン型データ入力装置及び該プログラム |
USD514570S1 (en) | 2004-06-24 | 2006-02-07 | Microsoft Corporation | Region of a fingerprint scanning device with an illuminated ring |
US20060181521A1 (en) * | 2005-02-14 | 2006-08-17 | Atrua Technologies, Inc. | Systems for dynamically illuminating touch sensors |
US7548230B2 (en) * | 2005-05-27 | 2009-06-16 | Sony Computer Entertainment Inc. | Remote input device |
KR100538572B1 (ko) * | 2005-06-14 | 2005-12-23 | (주)멜파스 | 시각적 입력 피드백을 포함하는 사용자 접촉 기반의 디지털기기 제어 장치 및 방법 |
USD567243S1 (en) | 2005-08-17 | 2008-04-22 | Nintendo Co., Ltd. | Controller for electronic game machine |
US20070081123A1 (en) | 2005-10-07 | 2007-04-12 | Lewis Scott W | Digital eyewear |
US8696113B2 (en) | 2005-10-07 | 2014-04-15 | Percept Technologies Inc. | Enhanced optical and perceptual digital eyewear |
US11428937B2 (en) | 2005-10-07 | 2022-08-30 | Percept Technologies | Enhanced optical and perceptual digital eyewear |
USD565668S1 (en) | 2005-12-15 | 2008-04-01 | Microsoft Corporation | Portion of a gaming input device having an illuminated region |
USD563480S1 (en) | 2005-12-15 | 2008-03-04 | Microsoft Corporation | Portion of a gaming input device having an illuminated region |
USD567287S1 (en) | 2006-03-28 | 2008-04-22 | Anand International | Pen |
DE102006037545B4 (de) * | 2006-08-10 | 2015-05-28 | Ferton Holding S.A. | Bedienelement und Verfahren zur Eingabe von Werten an einem medizinischen Gerät |
GB0711355D0 (en) | 2007-06-12 | 2007-07-25 | Saitek P L C | Video game controller |
US20090002218A1 (en) | 2007-06-28 | 2009-01-01 | Matsushita Electric Industrial Co., Ltd. | Direction and holding-style invariant, symmetric design, touch and button based remote user interaction device |
USD589515S1 (en) | 2007-10-17 | 2009-03-31 | Zeenote, Inc. | Wireless handheld controller |
USD611477S1 (en) | 2007-10-17 | 2010-03-09 | Zeemote, Inc. | Wireless handheld controller |
JP4626671B2 (ja) | 2008-04-24 | 2011-02-09 | ソニー株式会社 | 入力装置及び制御システム |
TWI360068B (en) | 2008-05-30 | 2012-03-11 | Asustek Comp Inc | Pointing device and method for determining rotatio |
US20100019468A1 (en) * | 2008-06-21 | 2010-01-28 | Price L Jay | Apparatus, system and method for accessing the engine compartment of a vehicle |
USD587713S1 (en) | 2008-07-11 | 2009-03-03 | Sutton Sales Llc | Controller for electronic game machine |
USD594066S1 (en) | 2008-07-25 | 2009-06-09 | Sony Computer Entertainment Inc. | Hand held game controller |
US8138938B2 (en) | 2008-10-28 | 2012-03-20 | The Boeing Company | Hand-held positioning interface for spatial query |
US8982063B2 (en) * | 2010-02-25 | 2015-03-17 | Blackberry Limited | Optical naviagation module having a metallic illumination ring |
USD638841S1 (en) | 2010-09-18 | 2011-05-31 | Ailive Inc. | Game controller |
US9304319B2 (en) | 2010-11-18 | 2016-04-05 | Microsoft Technology Licensing, Llc | Automatic focus improvement for augmented reality displays |
US10156722B2 (en) | 2010-12-24 | 2018-12-18 | Magic Leap, Inc. | Methods and systems for displaying stereoscopy with a freeform optical system with addressable focus for virtual and augmented reality |
CA2822978C (en) | 2010-12-24 | 2019-02-19 | Hong Hua | An ergonomic head mounted display device and optical system |
JP6316186B2 (ja) | 2011-05-06 | 2018-04-25 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 広範囲同時遠隔ディジタル提示世界 |
USD665461S1 (en) | 2011-06-07 | 2012-08-14 | Microsoft Corporation | Game controller |
USD658184S1 (en) | 2011-06-13 | 2012-04-24 | Hon Hai Precision Industry Co., Ltd. | Controlling handle |
US8179604B1 (en) | 2011-07-13 | 2012-05-15 | Google Inc. | Wearable marker for passive interaction |
US10795448B2 (en) | 2011-09-29 | 2020-10-06 | Magic Leap, Inc. | Tactile glove for human-computer interaction |
US20130104085A1 (en) | 2011-10-21 | 2013-04-25 | Digital Artforms, Inc. | Systems and methods for human-computer interaction using a two handed interface |
RU2017115669A (ru) | 2011-10-28 | 2019-01-28 | Мэджик Лип, Инк. | Система и способ для дополненной и виртуальной реальности |
KR102116697B1 (ko) | 2011-11-23 | 2020-05-29 | 매직 립, 인코포레이티드 | 3차원 가상 및 증강 현실 디스플레이 시스템 |
KR102028732B1 (ko) | 2012-04-05 | 2019-10-04 | 매직 립, 인코포레이티드 | 능동 포비에이션 능력을 갖는 와이드-fov(field of view) 이미지 디바이스들 |
USD698358S1 (en) | 2012-05-03 | 2014-01-28 | Apem, Inc. | Handheld controller |
US9671566B2 (en) | 2012-06-11 | 2017-06-06 | Magic Leap, Inc. | Planar waveguide apparatus with diffraction element(s) and system employing same |
US9310559B2 (en) | 2012-06-11 | 2016-04-12 | Magic Leap, Inc. | Multiple depth plane three-dimensional display using a wave guide reflector array projector |
USD675644S1 (en) | 2012-07-17 | 2013-02-05 | Nike, Inc. | Display screen with animated user interface |
AU2013315607A1 (en) | 2012-09-11 | 2015-04-02 | Magic Leap, Inc | Ergonomic head mounted display device and optical system |
US10444845B2 (en) * | 2012-12-21 | 2019-10-15 | Qualcomm Incorporated | Display of separate computer vision based pose and inertial sensor based pose |
IL293789B2 (en) | 2013-01-15 | 2023-08-01 | Magic Leap Inc | A system for scanning electromagnetic imaging radiation |
CN105188516B (zh) | 2013-03-11 | 2017-12-22 | 奇跃公司 | 用于增强和虚拟现实的系统与方法 |
KR102458124B1 (ko) | 2013-03-15 | 2022-10-21 | 매직 립, 인코포레이티드 | 디스플레이 시스템 및 방법 |
USD725040S1 (en) | 2013-03-15 | 2015-03-24 | Microsoft Corporation | Connector |
EP2797313A1 (en) * | 2013-04-26 | 2014-10-29 | Elvesjö, John | Computer graphics presentation system and method |
US9874749B2 (en) | 2013-11-27 | 2018-01-23 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
US10262462B2 (en) | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
EP3054693B1 (en) * | 2013-10-02 | 2019-12-25 | Samsung Electronics Co., Ltd | Image display apparatus and pointing method for same |
IL302408B2 (en) | 2013-10-16 | 2024-09-01 | Magic Leap Inc | An augmented or virtual reality head device with intrapupillary distance adjustment |
USD749044S1 (en) | 2013-10-17 | 2016-02-09 | Microsoft Mobile Oy | Charger |
US9111076B2 (en) * | 2013-11-20 | 2015-08-18 | Lg Electronics Inc. | Mobile terminal and control method thereof |
CN110542938B (zh) | 2013-11-27 | 2023-04-18 | 奇跃公司 | 虚拟和增强现实系统与方法 |
US9857591B2 (en) | 2014-05-30 | 2018-01-02 | Magic Leap, Inc. | Methods and system for creating focal planes in virtual and augmented reality |
USD740369S1 (en) | 2013-12-26 | 2015-10-06 | Lg Electronics Inc. | Controller for electronic learning device |
US9524580B2 (en) | 2014-01-06 | 2016-12-20 | Oculus Vr, Llc | Calibration of virtual reality systems |
CN106461955B (zh) | 2014-01-31 | 2019-08-13 | 奇跃公司 | 显示增强现实的方法 |
NZ722903A (en) | 2014-01-31 | 2020-05-29 | Magic Leap Inc | Multi-focal display system and method |
US10203762B2 (en) * | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
CN110308561A (zh) | 2014-03-14 | 2019-10-08 | 索尼互动娱乐股份有限公司 | 用于头戴式显示器(hmd)的方法和系统 |
US9495801B2 (en) * | 2014-05-01 | 2016-11-15 | Microsoft Technology Licensing, Llc | Pose tracking an augmented reality device |
WO2016018488A2 (en) | 2014-05-09 | 2016-02-04 | Eyefluence, Inc. | Systems and methods for discerning eye signals and continuous biometric identification |
USD759657S1 (en) | 2014-05-19 | 2016-06-21 | Microsoft Corporation | Connector with illumination region |
CN113253476B (zh) | 2014-05-30 | 2022-12-27 | 奇跃公司 | 采用虚拟或增强现实装置生成虚拟内容显示的方法和系统 |
USD752529S1 (en) | 2014-06-09 | 2016-03-29 | Comcast Cable Communications, Llc | Electronic housing with illuminated region |
USD755761S1 (en) | 2014-08-13 | 2016-05-10 | Comcast Cable Communications, Llc | Electronic housing with illuminated region |
USD769876S1 (en) | 2014-08-29 | 2016-10-25 | Apple Inc. | Component for electronic device |
US10534447B2 (en) | 2014-09-01 | 2020-01-14 | Yinbo Li | Multi-surface controller |
WO2016036711A1 (en) * | 2014-09-01 | 2016-03-10 | Cleverpet Llc | Animal interaction device, system, and method |
KR102243656B1 (ko) * | 2014-09-26 | 2021-04-23 | 엘지전자 주식회사 | 모바일 디바이스, hmd 및 시스템 |
US10265043B2 (en) * | 2014-10-14 | 2019-04-23 | M3Dicine Ip Pty Ltd | Systems, devices, and methods for capturing and outputting data regarding a bodily characteristic |
USD753095S1 (en) | 2014-12-11 | 2016-04-05 | Comcast Cable Communications, Llc | Remote and base with illuminated region |
WO2016104922A1 (ko) | 2014-12-24 | 2016-06-30 | 전자부품연구원 | 웨어러블 전자기기 |
JP2016162368A (ja) | 2015-03-04 | 2016-09-05 | ソニー株式会社 | 制御装置、制御方法、およびプログラム |
WO2016141373A1 (en) | 2015-03-05 | 2016-09-09 | Magic Leap, Inc. | Systems and methods for augmented reality |
US10412173B2 (en) * | 2015-04-22 | 2019-09-10 | Panasonic Avionics Corporation | Passenger seat pairing system |
USD758367S1 (en) | 2015-05-14 | 2016-06-07 | Magic Leap, Inc. | Virtual reality headset |
USD763359S1 (en) | 2015-05-29 | 2016-08-09 | Vtech Electronics, Ltd. | Game controller |
CN105117016A (zh) * | 2015-09-07 | 2015-12-02 | 众景视界(北京)科技有限公司 | 用于虚拟现实和增强现实交互控制中的交互手柄 |
CN105975082B (zh) * | 2016-05-27 | 2019-01-15 | 北京小鸟看看科技有限公司 | 一种应用于虚拟现实头戴设备的手柄控制器 |
US10146334B2 (en) | 2016-06-09 | 2018-12-04 | Microsoft Technology Licensing, Llc | Passive optical and inertial tracking in slim form-factor |
USD797743S1 (en) | 2016-08-22 | 2017-09-19 | Magic Leap, Inc. | Totem controller |
IL307594A (en) | 2016-08-22 | 2023-12-01 | Magic Leap Inc | Virtual, augmented and mixed reality systems and methods |
US10764053B2 (en) * | 2016-09-26 | 2020-09-01 | Snap Inc. | Systems and methods for device pairing with optical codes |
US10444987B2 (en) | 2016-12-19 | 2019-10-15 | Microsoft Technology Licensing, Llc | Facilitating selection of holographic keyboard keys |
US11163416B2 (en) | 2017-04-27 | 2021-11-02 | Magic Leap, Inc. | Light-emitting user input device for calibration or pairing |
USD844608S1 (en) | 2017-04-28 | 2019-04-02 | Facebook Technologies, Llc | Electronic input device |
USD828337S1 (en) | 2017-06-20 | 2018-09-11 | Yinbo Li | Multi-surface controller |
USD924204S1 (en) | 2018-07-24 | 2021-07-06 | Magic Leap, Inc. | Totem controller having an illumination region |
USD918176S1 (en) | 2018-07-24 | 2021-05-04 | Magic Leap, Inc. | Totem controller having an illumination region |
USD930614S1 (en) | 2018-07-24 | 2021-09-14 | Magic Leap, Inc. | Totem controller having an illumination region |
USD884700S1 (en) | 2018-08-30 | 2020-05-19 | Shenzhen Grandsun Electronic Co., Ltd. | Remote controller |
-
2018
- 2018-04-27 US US15/965,702 patent/US11163416B2/en active Active
- 2018-04-27 US US15/965,696 patent/US11112932B2/en active Active
- 2018-04-27 EP EP18790657.3A patent/EP3616040B1/en active Active
- 2018-04-27 IL IL270146A patent/IL270146B2/en unknown
- 2018-04-27 EP EP22197905.7A patent/EP4141623B1/en active Active
- 2018-04-27 KR KR1020197034642A patent/KR102472428B1/ko active IP Right Grant
- 2018-04-27 CN CN201880042586.4A patent/CN110832439B/zh active Active
- 2018-04-27 EP EP24177515.4A patent/EP4414951A2/en active Pending
- 2018-04-27 WO PCT/US2018/029988 patent/WO2018201067A1/en unknown
- 2018-04-27 CA CA3059209A patent/CA3059209A1/en active Pending
- 2018-04-27 CN CN202311184679.XA patent/CN117311494A/zh active Pending
- 2018-04-27 JP JP2019556946A patent/JP7231556B2/ja active Active
- 2018-04-27 AU AU2018258679A patent/AU2018258679B2/en active Active
- 2018-04-27 IL IL310727A patent/IL310727A/en unknown
-
2021
- 2021-07-23 US US17/384,663 patent/US11573677B2/en active Active
-
2022
- 2022-12-29 US US18/148,316 patent/US12067209B2/en active Active
-
2023
- 2023-01-23 JP JP2023008031A patent/JP7335462B2/ja active Active
- 2023-08-17 JP JP2023132794A patent/JP7385078B1/ja active Active
- 2023-10-19 JP JP2023180164A patent/JP2023179746A/ja active Pending
-
2024
- 2024-02-29 US US18/591,983 patent/US20240201823A1/en active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008521136A (ja) * | 2004-11-17 | 2008-06-19 | アトルア テクノロジーズ インコーポレイテッド | 入力システム及び電子システム構成方法 |
JP2008541222A (ja) * | 2005-06-02 | 2008-11-20 | サムスン エレクトロニクス カンパニー リミテッド | ユーザ命令を3次元的に入力可能な電子装置 |
JP2010015535A (ja) * | 2008-06-02 | 2010-01-21 | Sony Corp | 入力装置、制御システム、ハンドヘルド装置及び校正方法 |
JP2011024613A (ja) * | 2009-07-21 | 2011-02-10 | Sony Computer Entertainment Inc | ゲーム装置 |
JP2013515999A (ja) * | 2009-12-24 | 2013-05-09 | 株式会社ソニー・コンピュータエンタテインメント | 無線デバイスのペアリング及びグルーピング方法 |
JP2015072582A (ja) * | 2013-10-02 | 2015-04-16 | 三星電子株式会社Samsung Electronics Co.,Ltd. | ポインティング装置、ポインティング方法、及び、ポインティング装置用プログラム |
JP2017511082A (ja) * | 2014-01-31 | 2017-04-13 | ユースクエア ソフト インコーポレーテッド | 移植可能なプロセッシングとアプリケーション実行の装置および方法 |
US20160062489A1 (en) * | 2014-09-01 | 2016-03-03 | Yinbo Li | Multi-surface controller |
WO2017048519A1 (en) * | 2015-09-16 | 2017-03-23 | Google Inc. | Touchscreen hover detection in an augmented and/or virtual reality environment |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022149989A (ja) * | 2021-03-25 | 2022-10-07 | 株式会社ソニー・インタラクティブエンタテインメント | 入力デバイス |
JP7311550B2 (ja) | 2021-03-25 | 2023-07-19 | 株式会社ソニー・インタラクティブエンタテインメント | 入力デバイス |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7335462B2 (ja) | 発光ユーザ入力デバイス | |
JP7411133B2 (ja) | 仮想現実ディスプレイシステム、拡張現実ディスプレイシステム、および複合現実ディスプレイシステムのためのキーボード | |
JP7186913B2 (ja) | 姿勢および複数のdofコントローラを用いた3d仮想オブジェクトとの相互作用 | |
JP7546659B2 (ja) | 三次元環境と相互作用するためのデバイス、方法、及びグラフィカルユーザインタフェース | |
KR102413561B1 (ko) | 혼합 현실 환경의 가상 사용자 입력 콘트롤들 | |
JP7118007B2 (ja) | 視野周辺の視覚的背光 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210419 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210419 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220322 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220328 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220628 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221025 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230123 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230201 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230216 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7231556 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |