CN110832439B - 发光用户输入设备 - Google Patents
发光用户输入设备 Download PDFInfo
- Publication number
- CN110832439B CN110832439B CN201880042586.4A CN201880042586A CN110832439B CN 110832439 B CN110832439 B CN 110832439B CN 201880042586 A CN201880042586 A CN 201880042586A CN 110832439 B CN110832439 B CN 110832439B
- Authority
- CN
- China
- Prior art keywords
- user
- totem
- light
- user input
- pattern
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 246
- 230000033001 locomotion Effects 0.000 claims description 182
- 230000003993 interaction Effects 0.000 claims description 85
- 230000000007 visual effect Effects 0.000 claims description 67
- 230000004044 response Effects 0.000 claims description 60
- 230000003190 augmentative effect Effects 0.000 claims description 23
- 238000003825 pressing Methods 0.000 claims description 12
- 238000010079 rubber tapping Methods 0.000 claims description 11
- 210000003813 thumb Anatomy 0.000 abstract description 38
- 230000009471 action Effects 0.000 abstract description 7
- 230000008569 process Effects 0.000 description 130
- 238000003384 imaging method Methods 0.000 description 69
- 230000008859 change Effects 0.000 description 65
- 125000001475 halogen functional group Chemical group 0.000 description 60
- 230000003287 optical effect Effects 0.000 description 59
- 238000004891 communication Methods 0.000 description 39
- 238000004422 calculation algorithm Methods 0.000 description 33
- 230000007613 environmental effect Effects 0.000 description 32
- 238000012545 processing Methods 0.000 description 29
- 239000010410 layer Substances 0.000 description 26
- 210000003811 finger Anatomy 0.000 description 25
- 230000006870 function Effects 0.000 description 25
- 210000001747 pupil Anatomy 0.000 description 24
- 238000005286 illumination Methods 0.000 description 23
- 210000003128 head Anatomy 0.000 description 19
- 230000004308 accommodation Effects 0.000 description 17
- 239000003086 colorant Substances 0.000 description 17
- 238000005516 engineering process Methods 0.000 description 17
- 238000000605 extraction Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 15
- 230000000694 effects Effects 0.000 description 14
- 230000004438 eyesight Effects 0.000 description 14
- 238000012800 visualization Methods 0.000 description 14
- 239000000853 adhesive Substances 0.000 description 12
- 230000001070 adhesive effect Effects 0.000 description 12
- 230000007423 decrease Effects 0.000 description 12
- 238000009826 distribution Methods 0.000 description 12
- 239000000835 fiber Substances 0.000 description 11
- 239000000463 material Substances 0.000 description 10
- 238000013507 mapping Methods 0.000 description 9
- 238000005259 measurement Methods 0.000 description 9
- 230000002452 interceptive effect Effects 0.000 description 8
- 238000004458 analytical method Methods 0.000 description 7
- 230000000977 initiatory effect Effects 0.000 description 7
- 238000002347 injection Methods 0.000 description 7
- 239000007924 injection Substances 0.000 description 7
- 238000010801 machine learning Methods 0.000 description 6
- 230000015654 memory Effects 0.000 description 6
- 230000002829 reductive effect Effects 0.000 description 6
- 230000035807 sensation Effects 0.000 description 6
- 238000001228 spectrum Methods 0.000 description 6
- 210000004556 brain Anatomy 0.000 description 5
- 238000001514 detection method Methods 0.000 description 5
- 230000004043 responsiveness Effects 0.000 description 5
- 239000007787 solid Substances 0.000 description 5
- 238000003860 storage Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000005266 casting Methods 0.000 description 4
- 239000011521 glass Substances 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 4
- 230000008447 perception Effects 0.000 description 4
- 229920001343 polytetrafluoroethylene Polymers 0.000 description 4
- 239000004810 polytetrafluoroethylene Substances 0.000 description 4
- 238000000926 separation method Methods 0.000 description 4
- 230000003068 static effect Effects 0.000 description 4
- 230000008093 supporting effect Effects 0.000 description 4
- 238000011144 upstream manufacturing Methods 0.000 description 4
- 229920002799 BoPET Polymers 0.000 description 3
- 239000005041 Mylar™ Substances 0.000 description 3
- 239000012790 adhesive layer Substances 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 238000012790 confirmation Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000004424 eye movement Effects 0.000 description 3
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 3
- 230000001788 irregular Effects 0.000 description 3
- 230000000670 limiting effect Effects 0.000 description 3
- 230000001902 propagating effect Effects 0.000 description 3
- 230000000284 resting effect Effects 0.000 description 3
- 230000035945 sensitivity Effects 0.000 description 3
- 230000001953 sensory effect Effects 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- 238000001429 visible spectrum Methods 0.000 description 3
- BQCADISMDOOEFD-UHFFFAOYSA-N Silver Chemical compound [Ag] BQCADISMDOOEFD-UHFFFAOYSA-N 0.000 description 2
- 239000004809 Teflon Substances 0.000 description 2
- 229920006362 Teflon® Polymers 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000004397 blinking Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 210000000613 ear canal Anatomy 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 238000005562 fading Methods 0.000 description 2
- 239000005338 frosted glass Substances 0.000 description 2
- 238000007499 fusion processing Methods 0.000 description 2
- 239000003292 glue Substances 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 238000004020 luminiscence type Methods 0.000 description 2
- 239000011022 opal Substances 0.000 description 2
- 230000001151 other effect Effects 0.000 description 2
- 239000002245 particle Substances 0.000 description 2
- -1 polytetrafluoroethylene Polymers 0.000 description 2
- 239000000047 product Substances 0.000 description 2
- 230000029058 respiratory gaseous exchange Effects 0.000 description 2
- 238000005096 rolling process Methods 0.000 description 2
- 229910052709 silver Inorganic materials 0.000 description 2
- 239000004332 silver Substances 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 101710181757 1,2-dihydroxy-3-keto-5-methylthiopentene dioxygenase Proteins 0.000 description 1
- KRQUFUKTQHISJB-YYADALCUSA-N 2-[(E)-N-[2-(4-chlorophenoxy)propoxy]-C-propylcarbonimidoyl]-3-hydroxy-5-(thian-3-yl)cyclohex-2-en-1-one Chemical compound CCC\C(=N/OCC(C)OC1=CC=C(Cl)C=C1)C1=C(O)CC(CC1=O)C1CCCSC1 KRQUFUKTQHISJB-YYADALCUSA-N 0.000 description 1
- 101710094863 Acireductone dioxygenase Proteins 0.000 description 1
- 206010019233 Headaches Diseases 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 239000004983 Polymer Dispersed Liquid Crystal Substances 0.000 description 1
- 208000036366 Sensation of pressure Diseases 0.000 description 1
- 241000256856 Vespidae Species 0.000 description 1
- 235000005811 Viola adunca Nutrition 0.000 description 1
- 240000009038 Viola odorata Species 0.000 description 1
- 235000013487 Viola odorata Nutrition 0.000 description 1
- 235000002254 Viola papilionacea Nutrition 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 208000003464 asthenopia Diseases 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- FFBHFFJDDLITSX-UHFFFAOYSA-N benzyl N-[2-hydroxy-4-(3-oxomorpholin-4-yl)phenyl]carbamate Chemical compound OC1=C(NC(=O)OCC2=CC=CC=C2)C=CC(=C1)N1CCOCC1=O FFBHFFJDDLITSX-UHFFFAOYSA-N 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 238000005253 cladding Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000013329 compounding Methods 0.000 description 1
- 235000014510 cooky Nutrition 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000005034 decoration Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000002939 deleterious effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 239000010432 diamond Substances 0.000 description 1
- 229910003460 diamond Inorganic materials 0.000 description 1
- 230000005674 electromagnetic induction Effects 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 239000006260 foam Substances 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 231100000869 headache Toxicity 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000007373 indentation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 238000003064 k means clustering Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 229910052751 metal Inorganic materials 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000013488 ordinary least square regression Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000004033 plastic Substances 0.000 description 1
- 239000002985 plastic film Substances 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 239000002096 quantum dot Substances 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 230000002207 retinal effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 210000004935 right thumb Anatomy 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
- 231100000430 skin reaction Toxicity 0.000 description 1
- 125000006850 spacer group Chemical group 0.000 description 1
- 230000004936 stimulating effect Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000014616 translation Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
- G06F3/0308—Detection arrangements using opto-electronic means comprising a plurality of distinctive and separately oriented light emitters or reflectors associated to the pointing device, e.g. remote cursor controller with distinct and separately oriented LEDs at the tip whose radiations are captured by a photo-detector associated to the screen
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03547—Touch pads, in which fingers can move on a surface
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0483—Interaction with page-structured environments, e.g. book metaphor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/145—Illumination specially adapted for pattern recognition, e.g. using gratings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/20—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
- G09G3/22—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources
- G09G3/30—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using electroluminescent panels
- G09G3/32—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using electroluminescent panels semiconductive, e.g. using light-emitting diodes [LED]
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/038—Indexing scheme relating to G06F3/038
- G06F2203/0384—Wireless input, i.e. hardware and software details of wireless interface arrangements for pointing devices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04103—Manufacturing, i.e. details related to manufacturing processes specially suited for touch sensitive devices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04105—Pressure sensors for measuring the pressure or force exerted on the touch surface without providing the touch position
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2320/00—Control of display operating conditions
- G09G2320/06—Adjustment of display parameters
- G09G2320/0626—Adjustment of display parameters for control of overall brightness
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/80—Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computer Hardware Design (AREA)
- Optics & Photonics (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Ophthalmology & Optometry (AREA)
- Computer Graphics (AREA)
- Evolutionary Computation (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Computer Networks & Wireless Communication (AREA)
- Medical Informatics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Image Analysis (AREA)
Abstract
发光用户输入设备可以包括被配置为接受用户输入(例如,来自用户的拇指)的触敏部分和被配置为输出光图案的发光部分。光图案可以用于辅助用户与用户输入设备交互。示例包括:模拟多自由度控制器;指示滚动或滑动动作;指示设备附近的对象的存在;指示通知的接收;辅助将用户输入设备与另一设备配对;或辅助校准用户输入设备。发光用户输入设备可以用于向可穿戴设备(诸如,例如,头戴式显示设备)提供用户输入。
Description
相关申请的交叉引用
本申请要求于2017年4月27日提交的、标题为“LIGHT-EMITTING USER INPUTDEVICE(发光用户输入设备)”的、序列号为62/490,863美国临时申请在35 U.S.C.§119(e)下的优先权的权益,其通过引用以其整体并入本文。
技术领域
本公开涉及虚拟现实和增强现实成像和可视化系统,并且更特别地涉及与成像和可视化系统相关联的发光用户输入设备。
背景技术
现代计算和显示技术已经利于用于所谓的“虚拟现实”、“增强现实”或“混合现实”体验的系统的开发,其中,数字再现图像或其部分以其似乎真实或者可以被感知为真实的方式被呈现给用户。虚拟现实或者“VR“场景典型地涉及数字或者虚拟图像信息的呈现,而对于其他实际现实世界视觉输入不透明;增强现实或者“AR“场景典型地涉及将数字或者虚拟图像信息呈现为对用户周围的实际世界的可视化的增强;混合现实或者“MR”涉及合并真实和虚拟世界以产生物理和虚拟对象共存并且实时相互作用的新环境。事实证明,人类视觉感知系统非常复杂,并且产生利于其他虚拟或现实世界影像元素中的虚拟图像元素的舒适的、感觉自然的、丰富呈现的VR、AR或MR技术具有挑战性。本文所公开的系统和方法解决与VR、AR和MR技术有关的各种挑战。
发明内容
公开了发光用户输入设备的示例。用户输入设备的实施例可以用于向AR、VR或MR设备提供输入。发光用户输入设备还可向用户环境中的用户或人提供与AR/VR/MR设备相关联的事件或对象的视觉信息。
发光用户输入设备可包括被配置为接受用户输入(例如,从用户的拇指)的触敏部分和被配置为输出光图案的发光部分。光图案可以用于辅助用户与用户输入设备交互。示例包括:模拟多自由度控制器;指示滚动或滑动动作;指示设备附近的对象的存在;指示通知的接收;辅助校准用户输入设备;或辅助将用户输入设备与另一设备配对。发光用户输入设备可以用于向头戴式显示系统(诸如例如混合现实显示设备)提供用户输入。
在附图和以下描述中阐述本说明书中所描述的主题的一个或多个实施方式的细节。从说明书、附图和权利要求,其它特征、方面和优点将变得显而易见。本发明内容和以下详细描述二者都不旨在限定或者限制发明主题的范围。
附图说明
图1描绘了具有某些虚拟现实对象和由人观察的某些物理对象的混合现实场景的图示。
图2示意性地示出了可穿戴系统的示例。
图3示意性地示出了使用多个深度平面模拟三维影像的方法的各方面。
图4示意性地示出了用于将图像信息输出给用户的波导堆叠的示例。
图5示出了可由波导输出的示例的出射光束。
图6是示出在多焦点体积显示、图像或光场的生成中使用的光学系统的示意图,该光学系统包括波导装置、光学地将光耦合到波导装置或从波导装置耦合光的光学耦合器子系统和控制子系统。
图7是可穿戴系统的示例的框图。
图8是呈现与识别对象有关的虚拟内容的方法的示例的过程流程图。
图9是可穿戴系统的另一示例的框图。
图10是用于确定可穿戴系统的用户输入的方法的示例的过程流程图。
图11是用于与虚拟用户接口交互的方法的示例的过程流程图。
图12A示出了图腾(totem)的示例的侧和前(用户面向)视图。
图12B示出了图腾的另一示例的俯视图。
图13A示出了图腾的示例触摸板的剖视图。
图13B示出了触摸屏技术的示例。
图13C和13D示出了图腾的示例触摸板的附加的剖视图。
图13E示出了示例触摸板的仰视图。
图14A示出了图腾的示例触摸板的俯视图。
图14B示出了与触摸板相关联的LED的示例布局的概况。
图15示出了示例的LED布局或者来自LED布局的光图案。
图16A和16B示出了图腾的光发射的示例的放置或者运动图案。
图17A是示出图腾的示例部件的框图。
图17B是示出另一示例图腾的部件的侧剖视图。
图18A-18D示出了用于配置来自图腾的光环的光发射的放置或者运动图案的示例编程接口。
图19A-19C示出了使用来自图腾的光发射的光环的图腾校准的示例。
图19D和19E示出了使用与光环相关联的光图案的图腾校准的示例。
图20A和20B示出了指示混合现实设备与具有光环的图腾之间的无线配对过程的示例。
图20C示出了设备与光环配对的示例过程。
图20D示出了设备与光环配对的另一示例过程。
图21A示出了指示图腾的状态的示例。
图21B示出了通电和断电过程期间的光放置或者运动图案的示例。
图21C示出了显示电池充电状态的光放置或者运动图案的示例。
图21D示出了当图腾已经进入睡眠模式时的示例光图案。
图21E示出了指示基于光放置或者运动图案的图腾的状态的示例过程。
图22A和22B示出了用作用户交互的线索的示例光放置或者运动图案。
图22C示出了使用光图案提供可用用户交互操作的指示的另一示例。
图23示出了使用光图案作为指示不正确或不恰当的用户交互的警报的示例。
图24A示出了用于滑动手势的示例光图案。
图24B示出了用于触摸手势的示例光图案。
图24C示出了为图腾上的用户交互提供线索的示例过程。
图25A示出了光导的示例交互式使用。
图25B示出了具有两个可交互区域的图腾的示例交互式使用。
图25C示出了用于与图腾交互的示例过程。
图26A和26B示出了使用图腾与物理对象交互的示例。
图27示出了移动具有六自由度(6DOF)图腾的虚拟对象的示例。
图28A和28B示出了经由光图案的放置和运动提供对象的信息的示例。
图28C示出了用于使用光图案提供与对象相关联的信息的示例过程。
图29A示出了指示通知的接收的示例光放置或运动图案。
图29B示出了用于使用图腾上的光图案提供通知的示例过程。
图30示出了可以用于通知用户的环境中的人用户的当前交互的示例光图案。
在整个附图中,可以重复使用参考标号来指示所提及的元件之间的对应关系。提供附图以示出本文描述的示例实施例,并且不旨在限制本公开的范围。
具体实施方式
发光用户输入设备的概述
触敏用户输入设备可以支持用户输入,诸如滑动、轻叩、点击、按压等。例如,当用户使用触摸板浏览网站时,用户可以使用一个手指(例如,拇指)左右滑动以左右移动网页或者上下轻叩以上下移动网页。为了实现更多用户接口功能,诸如例如使内容跳到期望的位置、使内容滚动或者调整尺寸,触敏用户输入设备常常需要多个手指。例如,用户可以使用两个手指扩大网页并且使用一个手指在网页内移动。然而,当触摸板是用于可穿戴设备(其可以包括AR/VR/MR可穿戴显示器)的手持式用户输入设备的一部分时,用户可能不具有与可用于与触摸板交互的足够多的手指。例如,用户可以使用拇指与触摸板交互,而使用其他手指保持图腾。因此,可由常规手持式设备的触摸板实现的用户接口功能的类型可能显著减少。
为了改善该问题,本文所描述的图腾的实施例的触摸板可以被分成多个可交互区域,其中,每个区域可以被映射成一种或多种类型的用户接口交互。例如,触摸板可以包括靠近触摸板的中心的触摸表面和至少部分围绕触摸表面的外部区域。外部区域可以包括被配置为输出辅助用户与图腾交互的光图案(例如,光的放置、照亮、颜色和/或运动)的光导。由光导输出的光图案在本文中有时可被称为“光环”,因为光图案可看起来围绕图腾的中央触敏部分。光导可以在触摸传感器的顶部,以使得用户可以与光导交互并且经由光导区域向图腾提供触敏输入。当用户致动触摸表面时,图腾可模拟光标动作(诸如例如在浏览器上前后移动)。然而,如果用户想要执行其他类型的用户接口操作(诸如例如滚动网页),则用户可以启动光导。在一些示例中,光导可以不是触敏的。用户可以启动靠近光导的区域(例如,可由光导围绕的触摸板上的区域)以启动图腾。
作为另一示例,触摸表面可以被分成两个可交互区域,其中,一个区域支持用户的触摸动作(诸如例如,模拟多自由度(DOF)定向d-板(d-pad)的功能),而另一区域支持用户的滑动动作。具有两个可交互区域的触摸表面可以包括具有一个内环(作为第一可交互区域)和一个外环(作为第二可交互区域)的同心环。在该示例中,围绕触摸表面的光导可以是或可以不是可交互的,但是其可以提供与用户的交互有关或者与可穿戴系统有关的视觉反馈。如本文中将进一步描述的,由可交互区域支持的用户交互的类型可以基于虚拟环境中的事件或用户交互的对象动态改变。例如,外部区域可以用作当用户浏览网络时的d-板,而相同区域可以支持当用户玩虚拟游戏时的滑动交互(例如,循环滑动)。
在一些实施例中,图腾的光导可以为用户交互提供线索。例如,光环可以用于通知用户可用用户交互的类型和位置或者指示当前用户交互。作为示例,光导下面的发光二极管(LED)可以照亮以向用户指示用户可以触摸或轻叩触摸表面的该部分,其中,LED照亮以选择可穿戴显示器上的虚拟元素。LED还可以结合触觉反馈(例如,由图腾中的触觉致动器提供)或者音频反馈(例如,由可穿戴设备的扬声器提供)以提供用户交互的指示或者导引用户交互。
当图腾与可穿戴设备一起使用时,用户接口体验可以扩展到用户周围的3D环境。然而,通过可穿戴显示器感知的用户的视野(FOV)可小于人眼的自然FOV或小于用户周围的整个环境。因此,在用户的环境中可具有这样的物理或虚拟对象:其最初在增强现实显示器的FOV外部,但是可随后移动到可穿戴显示器的FOV中(例如,可相对于用户移动的对象)或者如果用户的身体、头部或眼睛姿势改变(其将改变用户的FOV)可随后变为可感知的。例如,在游戏的上下文中,用户可能试图找到机器人的化身。如果机器人正好在用户的当前FOV外部,则用户可能从机器人附近的可穿戴显示器接收不到线索。如果用户稍微移动他或她的头部,则机器人可能突然进入用户的FOV,这对于用户可能是吃惊的。进一步地,如果通过可穿戴显示器的用户的FOV相对小,则除非用户转动她的头部或者直接注视机器人,否则对于用户找到机器人可能是困难的。
为了改进用户接口体验,图腾可以提供关于用户的FOV外部的对象的信息。例如,图腾可以在触摸板的外部区域上为用户的当前FOV外部的对应对象提供视觉光环(例如,经由光导发射)。光环的光放置或者运动图案可以用于指示与对象相关联的信息,例如,较亮或较大光环可以指示对象更接近于FOV,而较暗或较小光环可以指示对象更远离FOV。类似地,光环的颜色可以用于指示对象的类型。例如,竞争者化身(在虚拟游戏中)可以与红色光环相关联,而队友的化身(在虚拟游戏中)可以与绿色光环相关联。作为另一示例,闪光彩虹光环可以指示系统通知或者警报。光环的光图案可以随着用户的环境中的对象的改变或者用户改变姿势而改变。
附加地或者可选地,光环的光图案可以用于指示过程的进展。例如,当图腾充电时,图腾可以显示对应于电池的充电百分比的光环。例如,当电池仅充电25%时,图腾可以显示光环的1/4(例如,90度弧)。当电池充电到100%时,图腾可以显示整个光环。光环的光放置或者运动图案还可以向用户的环境中的人提供用户的交互的指示。例如,当用户使用增强现实设备记录视频时,LED光环可以闪烁红色以向附近他人强调显示器处于记录模式,以使得附近他人将不会突然中断或者干扰用户的记录会话。
本文所描述的图腾的实施例可编程。例如,在各种实施例中,放置或者运动光图案可以由应用开发者或者由用户定制。光环可以基于用户正交互的应用的类型定制(例如,经由应用编程接口(API))。作为示例,当用户正使用浏览器时,触摸板的光导可以被映射到4路d-板(其对应于上、下、左和右用户接口操作)。作为另一示例,当用户正定速赛车游戏时,触摸表面的外部区域可映射到3路d-板,其中,3路d-板可以对应于左转、右转和刹车。用户还可以定制光环的光放置或者运动图案。例如,用户可以关闭光环或者改变与接收电子邮件通知相关联的光环的颜色。用户可以使用可穿戴显示器或者通过启动图腾定制与光环相关联的光图案。下面描述了图腾、光环和使用图腾和可穿戴设备的图腾用户接口交互的详细示例。
虽然示例图腾被描述为与可穿戴系统(或者任何类型的AR、MR或VR设备)一起使用,但是本文所描述的示例图腾和技术也可以与其他系统一起使用。例如,图腾可以用于与投射器或显示器(例如,电视或计算机显示器)、游戏系统、音频系统、物联网(IoT)中的可连接设备、或另一计算设备交互。
可穿戴系统的3D显示的示例
可穿戴系统(在本文中也称为增强现实(AR)系统)可以被配置为向用户呈现2D或3D虚拟图像。图像可以是静止图像、视频帧、或视频、组合等。可穿戴系统可以包括可以单独或者组合呈现VR、AR或MR环境以用于用户交互的可穿戴设备。可穿戴设备可以包括可穿戴显示设备,诸如例如头戴式显示器(HMD)。可穿戴设备还可以包括带包,该带包可以包括处理用于可穿戴设备的数据处理中的中央处理单元、电池等。在一些情况下,可穿戴设备可以与增强现实设备(ARD)交换使用。
图1描绘了具有某些虚拟现实对象和由人观察的某些物理对象的混合现实场景的图示。在图1中,描绘了MR场景100,其中,MR技术的用户看到以背景中的人、树、建筑为特征的现实世界公园状的设置110,以及混凝土平台120。除了这些项之外,MR技术的用户还感知到他或她“看到”站在现实世界平台120上的机器人雕像40,以及正在飞行的卡通式的化身人物140,其似乎是大黄蜂的拟人化,即使这些元素40、50不存在于现实世界中。
为了3D显示器产生真实深度感觉,更具体地表面深度的模拟感觉,期望显示器的视野中的每个点生成对应于其虚拟深度的调节响应。如由会聚和立体视觉的双眼深度线索所确定的,如果对显示点的调节响应不对应于该点的虚拟深度,则人眼可能经历调节冲突,导致不稳定的成像、有害的眼睛疲劳、头痛,并且在缺少调节信息的情况下,几乎完全缺少表面深度。
可以通过具有显示器的显示系统提供VR、AR和MR体验,在显示器中,将对应于多个深度平面的图像提供给观察者。图像可以对于每个深度平面不同(例如,提供场景或者对象的稍微不同的呈现)并且可以由观看者的眼睛单独聚焦,从而有助于基于使场景的位于不同深度平面上的不同图像特征聚焦所需的眼睛调节和/或基于观察在不同深度平面上的失焦的不同图像特征,为用户提供深度线索。如本文中其他地方所讨论的,这样的深度线索提供可信的深度感知。
图2示出了可穿戴系统200的示例。可穿戴系统200可以包括显示器220,以及支持显示器220的运行的各种机械和电子模块和系统。显示器220可以耦接到框架230,该框架230可由用户、穿戴者或观察者210穿戴。显示器220可以被定位在用户210的眼睛的前面。可穿戴系统的一部分(诸如显示器220)可以穿戴在用户的头部上。
在图2中,扬声器240被耦接到框架230并且被定位在用户的耳道附近(在一些实施例中,另一扬声器(未示出)被定位在用户的另一耳道附近以提供立体/可塑形的声音控制)。可穿戴系统200还可以包括观察用户周围的环境中的世界的面向外的成像系统464(在图4中示出)。可穿戴系统100还可以包括可跟踪用户的眼睛运动的面向内的成像系统462(在图4中示出)。面向内的成像系统可以跟踪一只眼睛的运动或者两只眼睛的运动。面向内的成像系统可以附接到框架230并且可以与处理模块260和/或270电气通信,处理模块260和/或270可以处理由面向内的成像系统获得的图像信息以确定例如用户210的眼睛或者眼睛姿势的瞳孔直径和/或取向。
作为示例,可穿戴系统200可以使用面向外的成像系统464和/或面向内的成像系统462以获得用户的姿势的图像。姿势可以用于确定用户的运动或者合成用户的图像。由面向外的成像系统464和/或面向内的成像系统462获得的图像可以在远程呈现会话中传递给第二用户以在第二用户环境中产生用户存在的有形感觉。
显示器220可以诸如通过有线导线或无线连接操作性地耦接250到本地数据处理模块260,本地数据处理模块260可以安装在各种配置中,诸如固定地附接到框架230、固定地附接到由用户穿戴的头盔或帽子、嵌入在耳机中、或者以其他方式可移除地附接到用户210(例如,在背包型配置中、在腰带耦接型配置中)。
本地处理和数据模块260可以包括硬件处理器,以及数字存储器,诸如非易失性存储器(例如,闪存),其二者可以用于辅助数据的处理、缓存和存储。数据可以包括以下数据:a)从传感器(其可以例如操作性地耦合到框架230或以方式附接到用户210)捕获的数据,诸如图像捕获设备(例如,面向内的成像系统和/或面向外的成像系统中的相机)、麦克风、惯性测量单元(IMU)、加速度计、指南针、全球定位系统(GPS)单元、无线电设备、和/或陀螺仪;和/或b)使用远程处理模块270和/或远程数据存储库280获取和/或处理的数据,可能用于在这样的处理或检索之后被传送到显示器220。本地处理和数据模块260可通过通信链路262和/或264(诸如经由有线或无线通信链路)操作性地耦接到远程处理模块270和远程数据存储库280,以使得这些远程模块可用作本地处理和数据模块260的资源。另外,远程处理模块280和远程数据存储库280可以操作地耦合到彼此。本地处理&数据模块260、远程处理模块270和远程数据存储库280可以各自包括通过通信链路262、264提供通信的网络接口。
在一些实施例中,远程处理模块270可以包括被配置为分析和处理数据和/或图像信息的一个或多个处理器。在一些实施例中,远程数据存储库280可以包括数字数据存储设施,该数字数据存储设施可通过因特网或“云”资源配置中的其他网络配置可用。在一些实施例中,在本地处理和数据模块中存储所有数据并执行所有计算,这允许来自远程模块的完全自主使用。
人类视觉系统复杂,并且提供逼真的深度感知具挑战性。在不受理论限制的情况下,据信对象的观察者可以由于辐辏(vergence)和调节的组合将对象感知为三维的。两只眼睛相对于彼此的辐辏运动(即,瞳孔朝向或远离彼此的滚动运动以将眼睛的视线会聚以固定在对象上)与眼睛的晶状体的聚焦(或“调节”)紧密地相关。在正常情况下,在被称为“调节-辐辏反射”的关系下,改变眼睛的晶状体的焦点或调节眼睛,以将焦点从一个对象改变到不同距离处的另一对象将自动导致同一距离的辐辏的匹配变化。同样,在正常条件下,辐辏变化将触发的调节的匹配变化。提供调节与辐辏之间的更好匹配的显示系统可形成三维影像的更现实和舒适的模拟。
图3示出了使用多个深度平面模拟三维影像的方法的各方面。参考图3,z轴上距眼睛302和304不同距离处的对象由眼睛302和304调节,以使得这些对象合焦(in focus)。眼睛302和304呈现特定的调节状态,以使沿着z轴的不同距离处的对象聚焦。因此,可以说特定的调节状态与深度平面306中的特定一个深度平面相关联,该特定深度平面具有相关联的焦距,以使得当眼睛处于针对该深度平面的调节状态时,特定深度平面中的对象或对象的部分合焦。在一些实施例中,三维影像可以通过为眼睛4、6中的每一只眼睛提供图像的不同呈现并且还通过提供对应于深度平面中的每一个的图像的不同呈现来模拟。尽管为了清楚说明而示出为分离的,但应理解,例如,随着沿着z轴的距离增加,眼睛302和304的视野可以重叠。另外,尽管为了便于说明而示出为平坦的,但是应当理解,深度平面的轮廓可以在物理空间中弯曲,以使得深度平面中的所有特征在眼睛处于特定调节状态时合焦。在不受理论的限制的情况下,据信人类眼睛通常可以解释有限数量的深度平面以提供深度感知。因此,通过向眼睛提供对应于这些有限数量的深度平面中的每一个的图像的不同呈现,可以实现感知深度的高度可信的模拟。
波导堆叠组件
图4示出了用于向用户输出图像信息的波导堆叠的示例。可穿戴系统400包括波导堆叠或堆叠波导组件480,其可用于使用多个波导432b、434b、436b、438b、400b向眼睛/大脑提供三维感知。在一些实施例中,可穿戴系统400可对应于图2的可穿戴系统200,其中,图4更详细地示意性示出该可穿戴系统200的一些部分。例如,在一些实施例中,波导组件480可以被集成到图2的显示器220中。
继续参考图4,波导组件480还可以包括波导之间的多个特征458、456、454、452。在一些实施例中,特征458、456、454、452可以是透镜。在其他实施例中,特征458、456、454、452可以不是透镜。相反,其可以简单地是间隔物(例如,包层和/或用于形成气隙的结构)。
波导432b、434b、436b、438b、440b和/或多个透镜458、456、454、452可以被配置为以各种水平的波前曲率或者光线发散度向眼睛发送图像信息。每个波导水平可以与特定深度平面相关联,并且可以被配置为输出对应于该深度平面的图像信息。图像注入设备420、422、424、426、428可以用于将图像信息注入到波导440b、438b、436b、434b、432b中,每个波导可以被配置为跨每个相应波导分配输入光以朝向眼睛410输出。光从图像注入设备420、422、424、426、428的输出表面出射,并且注入到波导440b、438b、436b、434b、432b的对应的输入边缘中。在一些实施例中,可以将单个光束(例如,准直光束)注入到每个波导中,以输出以特定角度(和发散量)朝向眼睛410引导的克隆准直光束的整个视野,该特定角度(和发散量)对应于与特定波导相关联的深度平面。
在一些实施例中,图像注入设备420、422、424、426、428是离散显示器,每个离散显示器分别产生用于注入到对应的波导440b、438b、436b、434b、432b中的图像信息。在一些其它实施例中,图像注入装置420、422、424、426、428是单个多路复用显示器的输出端,例如,多路复用显示器可以经由一个或多个光学导管(例如,光纤光缆)将图像信息传输到图像注入装置420、422、424、426、428中的每一个。
控制器460控制堆叠波导组件480和图像注入设备420、422、424、426、428的操作。控制器460包括调控到波导440b、438b、436b、434b、432b的图像信息的时序和提供的编程(例如,非暂态计算机可读介质中的指令)。在一些实施例中,控制器460可以是单个积分设备,或者由有线或无线通信信道连接的分布式系统。在一些实施例中,控制器460可以是处理模块260和/或270(在图2中示出)的一部分。
波导440b、438b、436b、434b、432b可以被配置为通过全内反射(TIR)在每个相应波导内传播光。波导440b、438b、436b、434b、432b可以各自是平面的或者具有另外的形状(例如,弯曲的),具有主顶部表面和主底部表面以及在这些主顶部表面和主底部表面之间延伸的边缘。在示出的配置中,波导440b、438b、436b、434b、432b可各自包括光提取光学元件440a、438a、436a、434a、432a,这些元件被配置为通过重引导在各自对应的波导内部传播的光来从波导中提取光,从波导出射以将图像信息输出到眼睛410。所提取的光也可以被称为耦出光,而光提取光学元件也可以被称为耦出光学元件。所提取的光在波导中传播的光撞击光提取光学元件的位置处通过波导输出。例如,光提取光学元件(440a、438a、436a、434a、432a)可以是反射和/或衍射光学特征。尽管为了便于描述和描绘清楚而被示出为设置在波导440b、438b、436b、434b、432b的底部主表面处,但是在一些实施例中,光提取光学元件440a、438a、436a、434a、432a可以设置在顶部和/或底部主表面处,和/或可以直接设置在波导440b、438b、436b、434b、432b的体积中。在一些实施例中,光提取光学元件440a、438a、436a、434a、432a可以被形成在附接到透明基板以形成波导440b、438b、436b、434b、432b的材料层中。在一些其它实施例中,波导440b、438b、436b、434b、432b可以是单片材料,且光提取光学元件440a、438a、436a、434a、432a可以被形成在该片材料的表面和/或内部。
继续参考图4,如本文所讨论的,每个波导440b、438b、436b、434b、432b被配置为输出光以形成对应于特定深度平面的图像。例如,最靠近眼睛的波导432b可以被配置为将注入到这种波导432b中的准直光递送到眼睛410。准直光可以代表光学无限远焦平面。下一上行波导434b可以被配置为在其可以到达眼睛410之前发送出准直光,该准直光穿过第一透镜452(例如,负透镜)。第一透镜452可以被配置为产生轻微凸的波前曲率,以使得眼睛/大脑将来自该下一上行波导434b的光解释为来自从光学无限远朝向眼睛410向内更近的第一焦平面。类似地,第三上行波导436b使其输出光在到达眼睛410之前穿过第一透镜452和第二透镜454。第一透镜452和第二透镜454的组合屈光力可以被配置为产生波前曲率的另一增加量,以使得眼睛/大脑将来自第三波导436b的光解释为比来自第一上行波导434b的光从光学无限远朝向人向内更加接近的第二焦平面。
其他波导层(例如,波导438b、440b)和透镜(例如,透镜456、458)类似地被配置,其中,该堆叠中的最高波导440b发送其输出通过其与眼睛之间的所有透镜,用于代表到人的最近焦平面的总屈光力。为了在观看/解释来自堆叠波导组件1178的另一侧的世界470的光时补偿透镜堆叠458、456、454、452,可以在堆叠的顶部设置补偿透镜层430以补偿下面的透镜堆叠458、456、454、452的总屈光力。这种配置提供与具有可用的波导/透镜对一样多的感知焦平面。波导的光提取光学元件和透镜的聚焦方面都可以是静态的(例如,不是动态的或电活性的)。在一些替代实施例中,它们中的一者或两者使用电活性特征而可以是动态的。
继续参考图4,光提取光学元件440a、438a、436a、434a、432a可以被配置为将光重引导到它们相应的波导之外并且针对与该波导相关联的特定深度平面输出具有适当的发散量或准直量的该光。结果,具有不同相关联深度平面的波导可具有不同的光提取光学元件的配置,这些光提取光学元件取决于相关联的深度平面而输出具有不同发散量的光。在一些实施例中,如本文所讨论的,光提取光学元件440a、438a、436a、434a、432a可以是体特征或表面特征,其可以被配置为以特定角度输出光。例如,光提取光学元件440a、438a、436a、434a、432a可以是体全息图、表面全息图和/或衍射光栅。在于2015年6月25日公开的美国专利公开号2015/0178939中描述了光提取光学元件(诸如衍射光栅),其通过引用以其整体并入本文。
在一些实施例中,光提取光学元件440a、438a、436a、434a、432a是形成衍射图案的衍射特征,或“衍射光学元件”(在本文中也被称为“DOE”)。优选地,DOE具有相对低的衍射效率,以使得光束的仅一部分光通过DOE的每一个交点而朝向眼睛210偏转,而其余部分经由全内反射而继续通过波导移动。携带图像信息的光因此被分成在多个位置处离开波导的多个相关的出射光束,并且结果是对于在波导内反弹的该特定准直光束是朝向眼睛4的相当均匀图案的出射发射。
在一些实施例中,一个或多个DOE可以在它们主动衍射的“开”状态与它们不显著衍射的“关”状态之间切换。例如,可切换的DOE可以包括聚合物分散液晶层,其中微滴在主体介质中包含衍射图案,并且微滴的折射率可以被切换为基本上匹配主体材料的折射率(在这种情况下,图案不会明显地衍射入射光),或者微滴可以被切换为与主体介质的折射率不匹配的折射率(在这种情况下,该图案主动衍射入射光)。
在一些实施例中,深度平面和/或场深度的数目和分布可以基于观察者的眼睛的瞳孔尺寸和/或取向而动态变化。场深度可以与观察者的瞳孔尺寸成反比改变。因此,随着观察者的眼睛的瞳孔尺寸减小,场深度增加,使得由于一个平面的位置超过眼睛的焦深而不可识别的一个平面可以变得可识别并且显得与瞳孔尺寸的降低和场深的相称增加更合焦。同样地,用于向观察者呈现不同图像的间隔深度平面的数目可以随着减小的瞳孔尺寸减小。例如,在不调整眼睛距一个深度平面和另一深度平面的调节的情况下,观察者可能不能够清楚地感知一个瞳孔尺寸处的第一深度平面和第二深度平面的细节。然而,在不改变调节的情况下,这两个深度平面可能在另一瞳孔尺寸处同时对用户足够合焦。
在一些实施例中,显示系统可以基于瞳孔尺寸和/或取向的确定或者基于接收到指示特定瞳孔尺寸和/或取向的电气信号来改变接收图像信息的波导的数目。例如,如果用户的眼睛不能够区分与两个波导相关联的两个深度平面,那么控制器460可以被配置或者被编程为停止向这些波导之一提供图像信息。有利地,这可以减少系统上的处理负担,从而增加系统的响应性。在用于波导的DOE可在开启状态与关闭状态之间切换的实施例中,DOE可以在波导接收图像信息时被切换到关闭状态。
在一些实施例中,可以期望使出射光束满足具有小于观察者的眼睛的直径的直径的条件。然而,鉴于观察者的瞳孔的尺寸的变化性,满足该条件可能具挑战性。在一些实施例中,通过响应于观察者的瞳孔的尺寸的确定改变出射光束的尺寸来在瞳孔尺寸的宽范围上满足该条件。例如,随着瞳孔尺寸减小,出射光束的尺寸也可以减小。在一些实施例中,出射光束尺寸可以使用可变孔而改变。
可穿戴系统400可以包括将世界470的一部分成像的面向外的成像系统464(例如,数字相机)。世界470的该部分可以被称为视野(FOV),并且成像系统464有时被称为FOV相机。可用于通过观察者观察或者成像的整个区域可以被称为能视域(FOR)。FOR可以包括围绕可穿戴系统400的立体角的4π球面度。在可穿戴系统400的一些实施方式中,FOR可以包括显示系统400的用户周围的基本上所有立体角,因为用户可以移动其头部和眼睛以查看用户周围的对象(在用户的前面、后面、上面、下面或两侧)。从面向外的成像系统464获取的图像可以用于跟踪由用户做出的手势(例如,手或手指手势)、检测用户的前面的世界470中的对象等。
可穿戴系统400还可以包括面向内的成像系统466(例如,数字相机),该面向内的成像系统466(例如,数字相机)观察用户的运动,诸如眼睛运动和面部运动。面向内的成像系统466可以用于捕获眼睛410的图像以确定眼睛304的瞳孔尺寸和/或取向。面向内的成像系统466可以用于获得用于确定用户正看的方向(例如,眼睛姿势)或者用于用户的生物识别(例如,经由虹膜识别)的图像。在一些实施例中,每只眼睛可利用至少一个相机,以单独地分开确定每只眼睛的瞳孔尺寸和/或眼睛姿势,从而允许将图像信息呈现给每只眼睛以动态地定制到该眼睛。在一些其他实施例中,仅单只眼睛410(例如,每双眼睛仅使用单个相机)的瞳孔直径和/或取向被确定并且假定为用户的双眼类似。由面向内的成像系统466获得的图像可以被分析以确定用户的眼睛姿势和/或情绪,其可以由可穿戴系统400用于决定哪个听觉或视觉内容应当呈现给用户。可穿戴系统400还可以使用传感器(诸如IMU(例如,加速度计、陀螺仪等))确定头部姿势(例如,头部位置或头部取向)。
可穿戴系统400可以包括用户输入设备466,通过该用户输入设备466,用户可以将命令输入到控制器460以与可穿戴系统400交互。例如,用户输入设备466可以包括轨迹板、触摸屏、操纵杆、多自由度(DOF)控制器、电容式感测器件、游戏控制器、键盘、鼠标、方向板(D-pad)、棒、触觉设备、图腾、智能电话、智能手表、平板电脑等、组合或类似物。多DOF控制器可以以控制器的一些或全部可能平移(例如,向左/向右、向前/向后、或向上/向下)或者旋转(例如,偏转、俯仰、或滚动)来感测用户输入。用户可以通过例如在鼠标上点击、在触摸板上轻叩、在触摸屏上滑动、悬停电容式按钮上或者触摸电容式按钮、按压键盘或游戏控制器(例如,5路d-板)上的按键、将操纵杆、棒、或图腾指向对象、按压遥控器上的按钮、或者与用户输入设备的其他交互来与他或她的环境中的用户输入设备466或对象(例如,虚拟或物理对象)交互。用户输入设备466的启动可以使得可穿戴系统执行用户接口操作,诸如例如显示与对象相关联的虚拟用户接口菜单、动画制作游戏中的用户的化身等。如本文所描述的,用户输入设备466可以被配置为发射光。光图案可以表示与用户的环境中的对象相关联的信息、与用户输入设备466或者可穿戴设备的用户的交互等等。
在一些情况下,用户可以使用手指(例如,拇指)在触敏输入设备上按压或者滑动以向可穿戴系统400提供输入(例如,向由可穿戴系统400所提供的用户接口提供用户输入)。用户输入设备466可以在可穿戴系统400的使用期间由用户的手保持。用户输入设备466可以与可穿戴系统400有线或无线通信。用户输入设备466可以包括本文所描述的图腾的实施例。图腾可以包括触摸表面,该触摸表面可以允许用户通过沿着轨迹滑动或轻叩等启动图腾。
图5示出了由波导输出的出射光束的示例。示出了一个波导,但是应当理解,在波导组件480包括多个波导的情况下,波导组件480中的其它波导可以类似地起作用。光520在波导432b的输入边缘432c处被注入波导432b中并且通过TIR在波导432b内传播。在光520入射在DOE 282上的点处,一部分光作为出射光束510离开波导。出射光束510被示出为基本上平行,但是,取决于与波导432b相关联的深度平面,出射光束650也可以以一角度(例如,形成发散的出射光束)被重引导到眼睛410。应该理解,基本上平行的出射光束可以指示具有将光耦出以形成看起来被设置在距眼睛410较大距离(例如,光学无穷远)处的深度平面上的图像的光提取光学元件的波导。其它波导或者其它光提取光学元件组可以输出更加发散的出射光束图案,这将需要眼睛410调节到更近距离,以将其聚焦在视网膜上并且将被大脑解释为光来自比光学无穷远更接近眼睛410的距离。
图6是示出在多焦点体积显示、图像或光场的生成中使用的光学系统的示意图,该光学系统包括波导装置、光学地将光耦合到波导装置或从波导装置耦合光的光学耦合器子系统和控制子系统。光学系统可以包括波导装置、光学地将光耦合到波导装置或从波导装置耦合光的光学耦合器子系统、和控制子系统。光学系统可以用于生成多焦点体积、图像或光场。光学系统可以包括一个或多个主平面波导632a(在图6中仅示出一个)以及与主波导632a中的至少一些中的每一个相关联的一个或多个DOE 632b。平面波导632b可以类似于参考图4所讨论的波导432b、434b、436b、438b、440b。光学系统可以采用分布波导装置以沿着第一轴(图6的视图中的垂直或Y轴)中继光,并且沿着第一轴(例如,Y轴)扩展光的有效出射光瞳。分布波导装置例如可以包括分布平面波导622b以及与分布平面波导622b相关联的至少一个DOE 622a(由双点划线示出)。分布平面波导622b可以在至少一些方面与主平面波导632b类似或者相同,具有与其不同的取向。同样地,至少一个DOE 622a可以在在至少一些方面与DOE 632a类似或者相同。例如,分布平面波导622b和/或DOE 622a可以分别包括与主平面波导632b和/或DOE 632a相同的材料。图6中示出的光学显示系统600的实施例可以集成到图2中示出的可穿戴系统200中。
中继和出射光瞳扩展的光从分布波导装置光学耦合到一个或多个主平面波导632b中。主平面波导632b沿着优选地正交于第一轴(例如,图6的视图中的水平或X轴)的第二轴中继光。显然,第二轴可以是第一轴的非正交轴。主平面波导632b沿着该第二轴(例如,X轴)扩展光的有效出射光瞳。例如,分布平面波导622b可以沿着垂直或Y轴中继并扩展光,并且将该光传递到主平面波导632b,该主平面波导632b沿着水平或X轴中继并扩展光。
光学系统可以包括一个或多个彩色光源(例如,红、绿和蓝色激光)610,这些彩色光源可以光学耦接到单模光纤640的近端中。光纤640的远端可以通过压电材料的中空管8穿过或者接收。远端从管642伸出作为固定自由的柔性悬臂644。压电管642可以与四个象限电极(未示出)相关联。例如,电极可以电镀在管642的外部、外表面或外周边或直径上。芯电极(未示出)也位于管642的核芯、中心、内周边或内径中。
驱动电子器件650(例如经由接线660电气耦合)驱动相对的电极对以在两个轴上独立地弯曲压电管642。光纤644的伸出远端具有共振的机械模式。共振的频率可以取决于光纤644的直径、长度和材料特性。通过在光纤悬臂644的机械共振的第一模式附近振动压电管8,使得光纤悬臂644振动,并且光纤悬臂644可以通过大的偏转扫描。
通过刺激在两个轴上的共振,光纤悬臂644的尖端在填充二维(2-D)扫描的区域中双向扫描。通过与光纤悬臂644的扫描同步调制(一个或多个)光源610的强度,从光纤悬臂644出射的光形成图像。在美国专利公开号2014/0003762中提供了这样的设置的描述,其通过引用以其整体并入本文。
光学耦合器子系统的部件准直从扫描光纤悬臂644出射的光。准直光由镜面648反射到窄分布平面波导622b中,该窄分布平面波导622b包含至少一个衍射光学元件(DOE)622a。准直光通过全内反射(TIR)沿着分布平面波导622b垂直地(相对于图6的视图)传播,并且这样做,重复地和DOE 622a相交。DOE 622a优选具有低衍射效率。这使得光的一部分(例如,10%)在与DOE 622a的每个交点处朝向较大的主平面波导632b的边缘衍射,并且使得光的一部分经由TIR在其原始轨迹上沿着分布平面波导622b的长度向下继续。
在与DOE 622a的每个交点处,附加光朝向主波导632b的入口衍射。通过将入射光分成多个耦出组,光的出射光瞳通过分布平面波导622b中的DOE 4垂直扩展。耦出分布平面波导622b的该垂直扩展光进入主平面波导632b的边缘。
进入主波导632b的光经由TIR沿着主波导632b水平地(相对于图6的视图)传播。当光经由TIR沿着主波导632b的长度的至少一部分水平传播时,光在多个点处和DOE 632a相交。DOE 632a可以有利地被设计或被配置为具有作为线性衍射图案和径向对称衍射图案的和的相位轮廓,以产生光的偏转和聚焦。DOE 632a可以有利地具有低衍射效率(例如,10%),以使得光束的仅一部分光通过DOE 632a的每一个交点朝向观察的眼睛210偏转,而光的其余部分经由TIR而继续通过波导传播。
在传播光与DOE 632a之间的每个交点处,光的一部分朝向主波导632b的邻近表面衍射,以允许光逸出TIR,并且从主波导632b的表面出射。在一些实施例中,DOE 632a的径向对称衍射图案附加地向衍射光赋予聚焦水平,以成形单独束的光波前(例如,赋予曲率)以及以匹配设计聚焦水平的角度使光束转向。
因此,这些不同路径可以使得光通过多个DOE 632a以不同角度、聚焦水平和/或产生出射光瞳处的不同填充图案耦出主平面波导632b。出射光瞳处的不同填充图案可以有益地用于产生具有多个深度平面的光场显示。波导组件中的每个层或者堆叠中的层组(例如,3层)可以用于生成相应颜色(例如,红色、蓝色、绿色)。因此,例如,第一组三个邻近层可以用于分别在第一焦深处产生红、蓝和绿光。第二组三个邻近层可以用于分别在第二焦深处产生红、蓝和绿光。多个组可以用于生成具有各种焦深的全3D或4D彩色图像光场。
可穿戴系统的其他部件
在许多实施方式中,可穿戴系统可以包括除了或者替代上文所描述的可穿戴系统的部件的其他部件。例如,可穿戴系统可以包括一个或多个触觉设备或者部件。(一个或多个)触觉设备或部件可操作以向用户提供触觉感觉。例如,当触摸虚拟内容(例如,虚拟对象、虚拟工具、其他虚拟结构)时,(一个或多个)触觉设备或部件可以提供压力和/或纹理的触觉感觉。触觉感觉可以复制虚拟对象表示的物理对象的感觉,或者可以复制虚拟内容表示的想象对象或者特征(例如,龙)的感觉。在一些实施方式中,触觉设备或者部件可以由用户穿戴(例如,用户可穿戴手套)。在一些实施方式中,触觉设备或者部件可以由用户保持。
例如,可穿戴系统可以包括一个或多个物理对象,该一个或多个物理对象可由用户操控以允许输入或者与可穿戴系统交互。这些物理对象在本文中可以被称为图腾。一些图腾可以采取无生命对象的形式,诸如例如金属或塑料片、墙壁、桌面。在某些实施方式中,图腾可以实际上不具有任何物理输入结构(例如,键、触发器、操纵杆、轨迹球、摇臂开关)。替代地,图腾可以简单地提供物理表面,并且可穿戴系统可以呈现用户接口以便对用户而言看起来在图腾的一个或多个表面上。例如,可穿戴系统可以呈现计算机键盘和触摸板的图像以看起来驻留在图腾的一个或多个表面上。例如,可穿戴系统可以呈现虚拟计算机键盘和虚拟轨迹板以看起来在用作图腾的薄矩形板的表面上。矩形板自己不具有任何物理键或轨迹板或传感器。然而,可穿戴系统可以随着经由虚拟键盘和/或虚拟轨迹板做出的选择或输入利用矩形板检测用户操纵或交互或触摸。用户输入设备466(在图4中示出)可以是图腾的实施例,该图腾可以包括轨迹板、触摸板、触发器、操纵杆、轨迹球、摇臂开关、鼠标、键盘、多自由度控制器、或另一物理输入设备。用户可以单独或与姿势组合使用,以与可穿戴系统和/或其他用户交互。
在美国专利公开号2015/0016777中描述了可与本公开的可穿戴设备、HMD、ARD和显示系统一起使用的触觉设备和图腾的示例,其通过引用以其整体并入本文。
示例的可穿戴系统、环境和接口
可穿戴系统可以采用各种映射相关技术以便在呈现的光场中实现高的场深度。在映射出虚拟世界时,有利的是,知道现实世界中的所有特征和点以准确地描写与现实世界有关的虚拟对象。为此目的,从可穿戴系统的用户捕获的FOV图像可以通过包括传达关于现实世界的各种点和特征的信息的新图片被添加到世界模型。例如,可穿戴系统可以收集地图点(诸如2D点或3D点)的集合并且发现新地图点以呈现世界模型的更准确的版本。第一用户的世界模型可以通信(例如,通过网络(诸如云网络))给第二用户,以使得第二用户可以体验第一用户周围的世界。
图7是MR环境700的示例的框图。MR环境700可以被配置为接收来自各种用户系统720a、720b的输入(例如,来自用户的可穿戴系统的视觉输入702、静态输入704,诸如室内相机、来自各种传感器、手势、图腾、眼睛跟踪的感测输入706、来自用户输入466的用户输入等)。用户系统720a、720b可以包括一个或多个用户可穿戴系统(例如,可穿戴系统200和/或显示系统220)和/或静态室内系统(例如,室内相机等)。可穿戴系统可以使用各种传感器(例如,加速度计、陀螺仪、温度传感器、运动传感器、深度传感器、GSP传感器、面向内的成像系统、面向外的成像系统等)以确定用户的环境的位置和各种其他属性。该信息还可以用来自室内的可以从不同视点提供图像和/或各种线索的静态相机的信息来补充。由相机(诸如室内相机和/或面向外的成像系统的相机)获取的图像数据可以减少到一组映射点。
一个或多个对象识别器708可以爬行通过接收到的数据(例如,点集)并且在地图数据库710的帮助下将点、标记图像、附接语义信息识别和/或映射到对象。地图数据库710可以包括随时间收集的各种点和它们的对应的对象。各种设备和地图数据库可以通过网络(例如,LAN、WAN等)连接到彼此以访问云。
基于地图数据库中的该信息和点集,对象识别器708a到708n可以识别环境中的对象。例如,对象识别器可以识别面部、人、窗、墙、用户输入设备、电视、用户环境中的其他对象等。一个或多个对象识别器可以专用于具有某些特征的对象。例如,对象识别器708a可以用于识别器面部,而另一对象识别器可以用于识别图腾。
可以使用各种计算机视觉技术执行对象识别。例如,可穿戴系统可以分析由面向外的成像系统464(在图4中示出)获取的图像以执行场景重建、事件检测、视频跟踪、对象识别、对象姿势估计、学习、标引、运动估计、或图像恢复等。一个或多个计算机视觉算法可以用于执行这些任务。计算机视觉算法的非限制性示例包括:尺度不变特征变换(SIFT)、加速鲁棒特征(SURF)、定向FAST和旋转BRIEF(ORB)、二进制鲁棒不变量可扩展关键点(BRISK)、快速视网膜关键点(FREAK)、Viola-Jones算法、Eigenfaces方法、Lucas-Kanade算法、Horn-Schunk算法、均值移位算法、视觉同时定位和映射(vSLAM)技术、序贯贝叶斯估计器(例如,卡尔曼(Kalman)滤波器、扩展卡尔曼滤波器等)、束调整、自适应阈值化(和其他阈值化技术)、迭代最近点(ICP)、半全局匹配(SGM)、半全局块匹配(SGBM)、特征点直方图、各种机器学习算法(诸如例如,支持向量机、k最近邻域算法、朴素贝叶斯(Naive Bayes)、神经网络(包括卷积或深度神经网络)、或其他监督/无监督模型等)等等。
可以附加地或替代地由各种机器学习算法执行对象识别。一旦训练,则机器学习算法可以由HMD存储。机器学习算法的一些示例可以包括监督或无监督机器学习算法,包括回归算法(诸如,例如,普通最小二乘回归)、基于实例的算法(诸如,例如,学习向量量化)、决策树算法(诸如,例如,分类和回归树)、贝叶斯算法(诸如,例如,朴素贝叶斯)、聚类算法(诸如,例如,k均值聚类)、关联规则学习算法(诸如,例如,先验算法)、人工神经网络算法(诸如,例如,感知器)、深度学习算法(诸如,例如,深玻尔兹曼机、或深度神经网络)、维数约简算法(诸如,例如,主成分分析)、集成算法(诸如,例如,堆叠泛化)、和/或其他机器学习算法。在一些实施例中,可以针对单独数据组定制单独模型。例如,可穿戴设备可以生成或者存储基本模型。基本模型可以用作生成特定于数据类型(例如,思科网真会话中的特定用户)、数据组(例如,思科网真会话中的用户获得的附加图像组)、条件情况或其他变型的附加模型的起始点。在一些实施例中,可穿戴HMD可以被配置为利用多种技术来生成用于分析聚合数据的模型。其他技术可以包括使用预定义阈值或者数据值。
可穿戴系统还可以利用语义信息补充识别对象以赋予对象生命。例如,如果对象识别器将点组识别为门,则该系统可以附一些语义信息(例如,门具有铰链并且具有围绕铰链的90度运动)。如果对象识别器将点组识别为图腾,则可穿戴系统可以附图腾可以与可穿戴系统配对(例如,经由蓝牙)的语义信息。随着时间过去,地图数据库随着系统(其可以本地驻留或者可通过无线网络访问)从世界累积更多数据而增长。一旦对象被识别,则信息可以被传送到一个或多个可穿戴系统。例如,MR环境700可以包括关于在加利福尼亚发生的场景的信息。环境700可以被传送到纽约的一个或多个用户。基于从FOV相机接收到的数据和其他输入,对象识别器和其他软件组件可以映射从各种图像收集的点、识别对象等,以使得场景可以准确地“传递”给第二用户,该第二用户可以在世界的不同部分中。环境700还可以使用用于定位目的的拓扑地图。
图8是渲染与识别对象有关的虚拟内容的方法800的示例的过程流程图。方法800描述可如何将虚拟场景表示给MR系统(例如,可穿戴系统)的用户。用户可以地理上远程于场景。例如,用户可以在纽约,但是可能想要观看目前在加利福尼亚进行的场景,或者可能想要与处于加利福尼亚的朋友一起行走。
在框810处,可穿戴系统可以接收来自用户和关于用户的环境的其他用户的输入。这可以通过各种输入设备和在地图数据库中已经具有的知识实现。在框810处,用户的FOV相机、传感器、GPS、眼睛跟踪等将信息传送给系统。在框820处,系统可以基于该信息来确定稀疏点。稀疏点可以用在确定姿势数据(例如,头部姿势、眼睛姿势、身体姿势、和/或手势)中,姿势数据可以用在显示和理解用户的周围环境中的各种对象的取向和位置中。在框830处,对象识别器708a、708n可以爬行通过这些收集点并且使用地图数据库识别一个或多个对象。在框840处,该信息然后可以被传送给用户的单独可穿戴系统,并且在框850处,期望的虚拟场景因此可以显示给用户。例如,可以以纽约的用户的各种对象和其他周围环境有关的适当取向、位置等显示期望的虚拟场景(例如,CA的用户)。
图9是可穿戴系统的另一示例的框图。在该示例中,可穿戴系统900包括地图,该地图可以包括用于世界的地图数据。地图可以部分本地驻留在可穿戴系统上,并且可以部分驻留在可通过有线或无线网络(例如,在云系统中)访问的联网存储位置处。姿势过程910可以在可穿戴计算架构(例如,处理模块260或者控制器460)上执行并且利用来自地图的数据来确定可穿戴计算硬件或用户的位置和取向。当用户正体验系统和在世界中操作时,姿势数据可以根据在飞行中收集的数据计算。数据可以包括来自传感器(诸如惯性测量设备,其通常包括加速度计和陀螺仪部件)的图像、数据和属于真实或虚拟环境中的对象的表面信息。
稀疏点表示可以是同时定位和映射(SLAM或V-SLAM,参考其中输入仅是图像/视觉的配置)过程的输出。系统可以被配置为不仅找出各种部件在世界上何处,而且找出世界由什么组成。姿势可以是实现许多目标的构建块,包括填充(populate)地图并且使用来自地图的数据。
在一个实施例中,稀疏点位置可能本身不完全足够,并且可能需要进一步的信息以产生多焦点AR、VR、或MR体验。密集表示(通常称为深度图信息)可以用于至少部分地填充该间隙。这样的信息可以根据被称为立体940的过程计算,其中,深度信息使用诸如三角测量或者飞行时间感测的技术确定。图像信息和有源图案(诸如使用有源投影器产生的红外线图案)可以用作立体过程940的输入。大量的深度图信息可以融合在一起,并且这样的一些可以用表面表示概括。例如,可数学上定义的表面是类似游戏引擎的其他处理设备的有效(例如,相对于大的点云)和易消化的输入。因此,可以在融合过程930中组合立体过程(例如,深度图)940的输出。姿势也可以是该融合过程930的输入,并且融合930的输出变为填充地图过程920的输入。子表面可以彼此连接(诸如在地形测图中),以形成较大表面,并且地图变为点和表面的大混合。
为了解决混合现实过程960中的各方面,可以利用各种输入。例如,在图9中所描绘的实施例中,游戏参数可以是确定系统的用户正在玩具有各种位置处的一个或多个怪物、在各种条件下(诸如如果用户射击怪物)死亡或逃走的怪物、各种位置处的墙或其他对象等的怪物搏斗游戏的输入。世界地图可以包括关于这样的对象相对于彼此处于何处的信息,这将是混合现实的另一有价值的输入。相对于世界的姿势也变为输入并且扮演几乎任何交互式系统的关键角色。
来自用户的控制或者输入是可穿戴系统900的另一输入。如本文所描述的,用户输入可以包括视觉输入、手势、图腾、音频输入、感测输入等。为了四处移动或玩游戏,例如,用户可能需要关于他或她想要做什么而指令可穿戴系统900。除了在空间中仅自身移动之外,存在可以利用的用户控制的各种形式。在一个实施例中,图腾、另外的用户输入设备、或对象(诸如玩具枪)可以由用户保持并且由系统跟踪。系统优选地将被配置为知道用户正保持该物品并且理解用正户与该物品进行什么类型的交互(例如,如果图腾或对象是枪,则系统可以被配置为理解位置和取向,以及用户是否点击触发器或其他感测按钮或可配备有传感器(诸如IMU)的元件,其可以辅助确定正发生什么,甚至何时这样的活动不在任何相机的视野内)。
手势跟踪或者识别还可以提供输入信息。可穿戴系统900可以被配置为跟踪并且解释用于按钮按压、用于进行向左或向右、停止、抓取、握住等的手势的手势。例如,在一个配置中,用户可能想要浏览非游戏环境中的电子邮件或日历,或者与另一人或玩家进行“碰拳”。可穿戴系统900可以被配置为利用最小量的手势,其可以是或可以不是动态的。例如,手势可以是简单静态手势,比如针对停止的张开手、针对好的向上竖拇指、针对不好的向下竖拇指;或针对方向命令的向右、或向左、或向上/向下的翻手。
眼睛跟踪是另一输入(例如,跟踪用户正在看向哪里以控制显示技术在特定深度或范围处呈现)。在一个实施例中,可以使用三角测量确定眼睛的辐辏,并且然后使用针对该特定人开发的辐辏/调节模型,可以确定调节。
关于相机系统,图9中示出的示例的可穿戴系统900包括三对相机;被布置到用户的面部的两边的相对宽FOV或无源SLAM相机对、在用户的前面取向以处理立体成像过程940并且还捕获在用户的面部前面的手势和图腾/对象跟踪的不同相机对。三对相机中的相机可以是面向外的成像系统464(在图4中示出)的一部分。可穿戴系统900可以包括朝向用户的眼睛取向的眼睛跟踪相机(其可以是图4中示出的面向内的成像系统462的一部分)以便三角测量眼向量和其他信息。可穿戴系统900还可以包括一个或多个纹理化光投射器(诸如红外(IR)投射器)以将纹理注入到场景中。
图10是用于确定可穿戴系统的用户输入的方法1000的示例的过程流程图。在该示例中,用户可以与图腾交互。用户可以具有多个图腾。例如,用户可能已经指定用于社交媒体应用的一个图腾、用于玩游戏的另一图腾等。在框1010处,可穿戴系统可以检测图腾的运动。图腾的运动可以通过用户的FOV相机识别或者通过传感器(例如,触觉手套、图像传感器、手跟踪设备、眼睛跟踪相机、头部姿势传感器等)检测。
在框1020处,至少部分地基于检测到的手势、眼睛姿势、头部姿势、或通过图腾的输入,可穿戴系统检测图腾(或用户的眼睛或头部或手势)相对于参考系的位置、取向、和/或运动。参考系可以是一组地图点,基于该组地图点,可穿戴系统将图腾(或用户)的运动转译为动作或命令。在框1030处,映射用户与图腾的交互。在框1040处,基于相对于参考系1020的用户交互的映射,系统确定用户输入。
例如,用户可以将图腾或物理对象来回移动以表示翻动虚拟页面并且移动到下一页面或从一个用户接口(UI)显示屏移动到另一UI屏。作为另一示例,用户可以移动其头部或眼睛以查看用户的FOR中的不同真实或虚拟对象。如果用户在特定真实或虚拟对象处的注视比阈值时间长,则真实或虚拟对象可被选择为用户输入。在一些实施方式中,可以跟踪用户的眼睛的辐辏并且调节/辐辏模型可以用于确定用户的眼睛的调节状态,该调节状态提供关于用户正聚焦的深度平面的信息。在一些实施方式中,可穿戴系统可以使用射线投射技术来确定哪些真实或虚拟对象沿着用户的头部姿势或眼睛姿势的方向。在各种实施方式中,射线投射技术可以包括投射具有基本上小横向宽度的细光束射线或投射具有基本上横向宽度(例如,锥形或截头锥形)的射线。
用户接口可以由如本文所描述的显示系统(诸如图2中的显示器220)投射。其还可以使用各种其他技术(诸如一个或多个投射器)显示。投射器可以将图像投射到物理对象(诸如画布或者球体)上。与用户接口的交互可以使用系统外部或系统的一部分的一个或多个相机(诸如,例如,使用面向内的成像系统462或面向外的成像系统464)跟踪。
图11是用于与虚拟用户接口交互的方法1100的示例的过程流程图。可以通过本文所描述的可穿戴系统执行方法1100。
在框1110处,可穿戴系统可以识别特定UI。UI的类型可以由用户预定。可穿戴系统可以识别出特定UI需要基于用户输入(例如,手势、视觉数据、音频数据、感测数据、方向命令等)来填充。在框1120处,可穿戴系统可以生成用于虚拟UI的数据。例如,可以生成与UI的边界、一般结构、形状相关联的数据。另外,可穿戴系统可以确定用户的物理位置的地图坐标,以使得可穿戴系统可以显示与用户的物理位置有关的UI。例如,如果UI是以身体为中心的,则可穿戴系统可以确定用户的物理姿态、头部姿势、或眼睛姿势的坐标,以使得可以在用户周围显示环形UI或可以在墙上或在用户的前面显示平面UI。如果UI是以手为中心的,则可以确定用户的手的地图坐标。这些地图点可以通过通过FOV相机接收到的数据、感测输入、或任何其他类型的收集的数据导出。
在框1130处,可穿戴系统可以从云向显示器发送数据,或者数据可以从本地数据库发送到显示部件。在框1140处,基于发送的数据,将UI显示给用户。例如,光场显示器可以将虚拟UI投射到用户的一只眼睛或两只眼睛中。在框1150处,一旦虚拟UI已经产生,则可穿戴系统可以简单地等待来自用户的命令以在虚拟UI上生成更多虚拟内容。例如,UI可以是用户的身体周围的以身体为中心的环。可穿戴系统可以然后等待命令(手势、头部或眼睛运动、来自用户输入设备的输入等),并且如果其被识别(框1160),则与命令相关联的虚拟内容可以显示给用户(框1170)。
在美国专利公开号2015/0016777中描述了可穿戴系统、UI和用户体验(UX)的附加示例,其通过引用以其整体并入本文。
示例图腾的概述
如参考图4和7-10所描述的,用户使用用户输入设备466(诸如,例如,图腾)在显示器(例如,显示器220)上执行各种用户接口操作。图12A示出了显示侧视图1210和前视图(面向用户)1250的图腾1200的示例实施例。图腾1200可以是单独或与其他用户输入设备组合的用户输入设备466(在图4中示出)。可以将图腾1200定尺寸和成形以便手持。在2017年8月22日提交的美国专利申请号15/683,677中示出和描述了本文所公开的各种实施例中的一个或多个中的用户输入设备(诸如,例如,图腾)的进一步的示例,具有与于2016年8月22日提交的美国设计专利申请号29/575,031的图腾控制器相同或类似的装饰外观,前述申请二者通过引用以其整体并入本文。
图12A中示出的图腾1200可以包括具有触发器1212、主页按钮1256和触摸板1260的本体1214,尽管更多或更少按钮、触发器、或特征可以包括在其他示例图腾中。光导1264可基本上围绕触摸板1260。在图12A和12B中示出的示例中,光导1264是基本上环形的(例如,圆环),该光导1264基本上围绕圆形触摸板1260。在其他实施例中,触摸板1260和光导1264可以不同地成形。例如,触摸板1260可以是多边形形状(例如,正方形、矩形、六边形等)或椭圆形,并且光导可以具有基本上围绕触摸板的形状(例如,圆形、椭圆形、多边形等)。
触发器、主页按钮和触摸板可以接受用户输入(例如,分别通过推、释放或触摸)。可以照亮光导1264以显示光图案。在一些实施例中,光导1264是触敏的并且可以接收用户输入。当不由用户保持时,图腾1200可以可移除地附接到底座1220。底座1220可以包括电源连接(例如,到壁插座)并且可以用于在图腾附接到底座1220时对图腾1200充电。
触发器的示例
触发器1212可以位于远离用户面对的图腾本体1214的上部。触发器1212可以包括触摸表面1234和触摸传感器(在图12A中未示出),该触摸传感器可以接收用户输入。触摸传感器可以感测触摸表面1234上(或附近)的用户的手指和用户的手指在触摸表面1234上的运动。附加地或者替代地,触发器1212可以包括用户可以按压的按钮1232。按钮1232可以包括可以检测何时用户按压按钮1232的压力传感器。按钮1232可以从其静止位置按压6-8mm。在一些实施例中,触发器1212可以包括多个按钮,诸如例如选择、返回、选项等。
例如,触发器1212可以使用Alps力传感器实现。触发器1212(或者按钮1232)还可以使用模拟或数字按钮实现。触发器1212可以与微处理器相关联。微处理器可以保留用于触发器1212的各种功能的两个通用输入/输出(GPIO)针。
在一些实施方式中,触发器1212可以被配置为提供触觉反馈。触发器1212可以包括触觉致动器,诸如例如线性谐振器致动器(LRA)、偏心旋转质量(ERM)、压电致动器等。例如,触发器1212可以采用S型LRA(诸如,例如,模拟按钮1232上的S型Alps触觉)以生成振动。
用户可以使用各种手势致动触发器1212。例如,用户可以通过触摸、滑动、轻叩、按压等致动触发器1212。触发器1212可以提供丰富的触摸特征,其中,各种用户接口交互可以与用于致动触发器1212的不同手势相关联。例如,用户可以通过按压触发器1212在AR接口与VR接口之间切换。作为另一示例,用户可以通过在触发器的触摸表面1234上滑动将虚拟对象滑进和滑出用户的FOV。用户接口交互还可以与致动的持续时间相关联。图腾1200可以记录按压的持续时间并且基于按压的持续时间来确定用户接口操作。例如,按压触发器1212延长的持续时间(诸如例如,用于3-5秒)可以使得可穿戴系统退出程序(诸如例如,电影),而触发器的快速按压可以使得可穿戴系统选择用户的注视方向上的虚拟对象。
触发器可以结合图腾的其他部件或用户的姿势致动以执行用户接口操作。例如,用户可以压住触发器1212,同时在触摸板1260上滑动以移动虚拟对象。作为另一示例,用户可以利用他或她的右拇指压住触发器1212并向右移动他或她的手臂以向右移动虚拟对象。
触发器1212还可以被配置为向用户提供一个或多个用户接口操作可用的指示。例如,当触发器1212按压延长的持续时间时,可穿戴系统可以使得用户能够改变游戏的设置。为了向用户指示他或她现在可以改变设置,可穿戴系统可以在触发器1212上(或在图腾的本体上)提供触觉反馈(诸如,例如,振动)。除了或者替代提供用户接口操作可用的指示,触觉反馈还可以用于通知用户他或她已经使用某个手势(诸如例如,轻叩或按压)致动触发器1212。
在其他实施例中,可以通过图腾1200的其他按钮或触敏表面实现触发器1212的上文所描述的一些或全部功能。例如,如下文参考图17B所描述的,按钮(也称为缓冲器)可以执行触发器1212(或主页按钮1256)的一些或全部功能。
参考图17A和17B描述了图腾1200的其他示例。
触摸板的示例
图腾可以包括位于图腾本体1214的上前部的触摸板1260,该触摸板1260面向用户。触摸板1260可以包括触摸表面1262和光导1264。在一些示例中,触摸板1260的架构和/或功能可以与在美国专利申请号15/683,677(其如上所述通过引用以其整体并入本文)中描述的触摸板的架构和/或功能基本上相同或类似。在示出的示例中,光导1264基本上围绕触摸表面1262。触摸板1260可以包括各种可交互区域。例如,用户可以单独或组合地致动触摸表面1262、光导1262。触摸表面1262还可以包括多个可交互区域,其中,每个区域被映射到用户输入的类型(或者用户接口操作)。
触摸表面1262可以是具有27mm-40mm的范围内的直径的圆形表面。触摸表面1262还可以是其他形状,诸如例如椭圆形、矩形、三角形、菱形、不规则形状等。在某些实施方式中,触摸板1260可以具有小于50ms业务量导频(T2P)延迟。
触摸表面1262可以基本上由光导1264围绕。例如,在各种实施例中,光导1264可以对向围绕大于90度、大于180度、大于270度、或多达全360度的触摸表面的角距离。可以照亮光导1264以显示具有光图案的各种放置和运动的光环。光导1264可以漫射由触摸板的光源1330(例如,LED)生成的光以显示光环,以使得来自单独分立光源的照亮合并。光导1264可以包括由例如形成为环形的塑料或聚合材料形成的漫射光学元件,该漫射光学元件可以将来自光源1330的光传送(和漫射)到图腾1200的观察者(参见,例如,图13A-14A)。光导可以是透明或半透明的。在各种实施例中,光导1264可以包括扩散板、扩散膜、蚀刻波导、包括粒子层的透射光学元件、不规则表面、全息照相、白表面、毛玻璃、聚四氟乙烯(PTFE或Teflon)、乳白玻璃、灰色玻璃、彩胶等。包括光学漫射材料的光导的实施例有利地可以漫射并且扩散来自光源1330的光,以使得光导表现为具有总体基本连续的发光(当所有光源被照亮时)而不是表现为分立单独光源(如果光导基本上透明)。
触摸板可以包括许多红、绿、蓝色(RGB)LED(诸如,例如,6-24个RGB LED)。光环的光放置或者运动图案可以提供用户与可穿戴系统的图腾或其他部件的交互的视觉指示、与可穿戴系统相关联的进展的状态、用户的环境中的对象等。参见,例如,图13C的LED 1383a或图13E的LED 1394a。
光源可以包括(附加地或者替代地)在电磁光谱的不可见部分(例如,红外线或紫外线)中辐射的发射器。在这样的实施例中,可穿戴设备上的相机可以对对应的不可见光谱敏感并且可以对由这些发射器显示的不可见光成像。因此,图腾1200和可穿戴设备可以经由这样的不可见光谱模态交换信息。例如,图腾1200和HMD可以使用不可见光谱模态交换设备配对信息。
触摸板1260可以包括在触摸表面1262和光导1264的一部分下面的力-触觉部件。力-触觉部件可以包括用于经由触摸表面1262或光导1264向用户提供触觉反馈的触觉致动器。触觉反馈可以单独或与视觉光环组合使用以提供与用户的环境中的图腾或对象的用户交互的指示。
力-触觉部件还可以包括用于检测用户对触摸板的致动的触摸检测器。力-触觉部件可以使用牢固(tough)型Alps LRA实现。力-触觉部件可以包括具有模拟数字转换器(ADC)的应变计。
触摸板1260可以采用混合控制技术,诸如例如,轨迹点型的混合速度控制输入技术、混合力和速度技术等。触摸板1260可以使用ADC以使能这样的输入技术。在某些实施方式中,触摸板的灵敏度可小于5牛顿。参考图13A和14E进一步描述了触摸板1260的附加结构示例。
触摸板1260可以为各种用户接口体验提供丰富的触摸特征。例如,用户可以使用触摸板1260(单独或与图腾或可穿戴系统的其他部件结合)来移动或定向虚拟对象。触摸板1260还可以用作输入文本的虚拟键盘。
图腾的本体的示例
图腾1200的本体1214可以是火炬的形状(参见例如,图12A),其中,本体包括伸长圆柱形,该伸长圆柱形可以朝向图腾的顶部向外成角度,以使得以形状更是截头锥形的(其可以使在用户的手中更容易或更舒适地握住)。本体1214可以包括用于用户的手指的压痕,这可以辅助抓住并且握住图腾。图12B是示出图腾1200的另一示例的俯视图1270。在该实施例中,本体1214的形状是卵形的,以使得其可以更加适于在用户的手的手掌或者当放在一表面(例如,桌子)上时更稳定。在一些示例中,图腾1200的本体1214的装饰外观可以与在美国设计专利申请号29/575,031(其如上所述通过引用以其整体并入本文)中示出和描述的图腾控制器的装饰外观基本上相同或类似。用于本体1214的其他形状是可能的,诸如具有卵形、多边形等的剖面的伸长本体。本体1214的剖面可以基本上对称,以使得图腾1200可以在用户的左手或用户的右手中容易握住。
本体1214可以包括上部1242,该上部1242可以包括触发器1212和触摸板1260。本体1214还可以包括底部1244。底部1244可以包括接口,以使得图腾1200可以可移除地附接到底座1220。例如,当图腾1200充电时,底部1244可以经由连接接口1222(诸如,例如,USB-C连接)连接到底座1220。作为另一示例,底部1244可以经由底座1220连接到另一计算设备(诸如家庭计算机)。当连接到计算机时,用户因此可以经由计算设备上的编程接口(下面参考图18A-18D描述)对光环的光放置或者运动图案(在触摸板1260上)进行配置。
触摸板1260可以成角度,以使得当图腾1200保持在用户的手中时,触摸表面1260和光导1262可容易地由用户观察。触摸板1260与水平面的角度可以在从约10到60度的范围内。结果是,本体1214可以借助于这样的角度呈现更截头锥形的形状。如上文所描述的,该形状可以使图腾1200由用户更容易或更舒适地握住在其手中。在一些实施例中,触摸板1260与水平面的角度可以在约15-30度的范围内。触发器1212可以与触摸板1260相对设置,以使得当图腾1200保持在用户的手中时,其可容易地用用户的食指按压。
在一些实施例中,底部1244可以包括照亮的电源指示器。照亮的电源指示器可以包括一个或多个RGB LED。LED电源指示器的光放置或者运动图案可以用于提供与用于LED图腾的剩余电池或者电池充电状态有关的信息。
本体1214可以被配置为向用户提供触觉反馈。本体1214可以包括用于提供触觉反馈的触觉致动器1760(在图17A、17B中示出)。触觉致动器1760可以利用牢固类型LRA或者ERM触觉实现。参考图17A、17B描述了与本体1214相关联的部件的细节。
主页按钮的示例
图腾1200可以包括主页按钮1256。主页按钮1256可以位于图腾1200的本体1214上。当用户致动主页按钮1256时,可穿戴系统可以执行各种用户接口操作,诸如例如,返回/打开应用或显示器的主菜单、退出程序、选择应用等。在一些实施例中,当用户致动主页按钮1256时,可穿戴系统可以进入睡眠模式或者从睡眠模式唤醒、开启或者关闭显示器上的虚拟内容等。
可穿戴系统可以基于用户如何致动主页按钮1256来执行操作。例如,如果用户致动主页按钮延长的持续时间,则显示器可以关闭。作为另一示例,如果用户按压主页按钮1256两次,则显示器可以呈现显示器的主页面,而如果按压主页按钮一次,则显示器可以呈现用户当前交互的游戏应用的主菜单。其他功能可以通过主页按钮1256实现,例如,按钮上的快速轻叩可以带来应用启动栏用户接口;在应用内,快速轻叩可以带来应用菜单或长按可以暂停应用并且带来应用启动栏用户接口。
主页按钮1256可以包括RGB LED指示器,该RGB LED指示器可以用于指示图腾或可穿戴显示器的当前状态(诸如其是否开启/关闭);图腾、可穿戴显示器、或可穿戴系统的其他部件的电池状态。
在各种实施例中,图腾1200包括主页按钮1256和触发器1212或仅包括这些用户输入元件中的一个(或附加按钮,诸如参考图17B所描述的缓冲器1266)。图腾1200可以与所示出的不同地配置或者成形。例如,主页按钮1256可以实现为触发器的一部分(而不是本体1214的一部分)。作为又一示例,触摸板1260或者主页按钮1256可以提供充电图腾1200的进展的视觉指示。许多变型是可能的,并且附图旨在示出示例的实施例而不是限制本公开的范围。
底座的示例
如参考图腾的本体1214所描述的,图腾1200的本体1214可以可移除地附接到底座1220。底座与图腾之间的接口可以允许充电、访问图腾中的数据或者提供软件更新等。例如,底座1220可以包括通用串行总线(USB)插头,该通用串行总线(USB)插头可以插入到本体1214的底部1244上的USB端口中。底座1220还可以使用用于将图腾充电的电源线连接到电源出口。底座还可以使用有线或无线通信信道与其他计算设备(诸如个人计算机、电视、投射器等)连接。
使图腾致动的示例
图腾1200可以支持各种输入技术,诸如例如,触摸、滑动、滚动、旋转拨号、点击、按压、d-板模拟等。在一些实施例中,图腾1200可以支持惯性滑动。例如,当用户沿着触摸板1260上的轨迹滑动时,即使用户的手指已经停止滑动,虚拟对象也可以继续沿着轨迹移动。图腾1200还可以支持边缘滑动,诸如例如,在触摸板1260或者光导1264的水平或垂直边缘上滑动。
用户可以使用各种手势和身体姿势致动图腾1200。例如,用户可以滑动或触摸触摸板1260或触发器1212。在一些实施例中(诸如例如,实施例1210和1250),图腾1200可以支持6DOF用户交互。例如,用户可以旋转图腾1200以旋转游戏化身。如参考图17A、17B进一步描述的,图腾1200可以使用环境传感器1710(诸如IMU)来检测用户的运动。在其他实施例中(诸如例如,图12B中示出的图腾1200的示例),图腾可以支持3DOF(而不是6DOF)。在这些实施例中,图腾可以检测并且平移用户的颠簸、起伏、和摇摆运动但不是俯仰、偏转、和滚动运动、或反之亦然。
虽然参考手持式设备描述了示例,但是类似技术也可以用于针对座椅和桌面控制设计的用户输入设备。
触摸板的示例结构
触摸板的剖视图
图13A示出了图腾1200的示例的触摸板1260的剖视图。示例的触摸板1260可以是参考图12A和12B所描述的图腾1200的一部分。触摸板1260可以包括3个层:顶层1312、中间层1314、和底层1316。
底层1316可以包括印刷电路板(PCB)1340。PCB 1340可机械地支持并且电子地连接到中间层1314上的一个或多个部件,诸如光源1330(例如,LED)和触摸传感器1350。PCB1340还可以支持支架(armature)1320。附加地或者可替代地,PCB 1340可以电子地连接图腾的其他部件,诸如例如,触觉致动器(例如,用于触摸板1260、触发器1212、或本体1214等的致动器)、微处理器等。
触摸板1260的中间层1314可以包括触摸传感器1350。触摸传感器1350可以是参考图12A所描述的力-触觉部件的示例。触摸传感器1350可以使用各种触摸屏技术(诸如,例如,电阻或者电容传感器技术)以确定触摸板1260的用户的致动或提供触觉反馈。触摸传感器1350可以被配置为使能多点触摸技术,其中,该多点触摸技术可以在施加到触摸表面1262(和光导1264)的不同水平的力之间区分。触摸传感器1350可以提供三个正交方向(例如,XYZ)上的灵敏度。在图13B中描述了可以由触摸传感器1350采用的示例的触摸屏技术。
在图13A中,LED 1330可以定位在触摸传感器1350与支架1320之间。中间层1314可以包括6至12个LED,但是其他数目(例如,3、15、18、20等)的LED也是可能的。LED可以基本上均匀地围绕光导的圆周定位(参见,例如,图13E和14A中的俯视图)或者一些LED可以比以均匀间隔彼此更接近地定位。LED 1330可以单独或组合地包括单色LED(诸如,例如,蓝紫色LED)、双色LED、RGB LED(或其他多色LED)、白色LED、有机LED(OLED)、量子点LED、红外LED、紫外LED等。LED 1330可以由微处理器(例如,在PCB板1340上)控制。例如,通过使用微处理器独立地调节RGB LED的每种颜色(红色、绿色和蓝色),可以由RGB LED生成宽范围的颜色(例如,大的色域)。由LED生成的光图案可以与与图腾或可穿戴系统的用户交互相关联,以及与用户的环境中的对象相关联。在一些示例中,光图案也可以被称为光环的光放置或者运动图案。
支架1320可以跨越顶层1312和中间层1314。支架1320可以将中间层1314和顶层1312保持在一起。支架的一部分可以接触LED 1330的顶部。
除了支架1320的一部分之外,顶层可以包括光导1264和触摸表面1262。触摸表面1262可以由光导1264围绕并且可以位于触摸传感器1350的顶部。用户可以使用手势致动触摸表面1262。触摸表面1262还可以向用户提供触觉反馈。光导1264的一部分可以叠置在触摸传感器1350的顶部上,并且因此用户可以致动光导1264。在一些实施例中,光导可以不是可触摸的(例如,因为触摸传感器1350不在光导1264下面)。然而,光导仍然可以提供视觉或触觉反馈。
光导1264可以在顶层1312上在支架1320与触摸表面1262之间。光导1264可以包括第一部分1362和第二部分1364。光导1264的第一部分1362可以叠置在LED 1330的顶部上。光导1264可以漫射由LED 1330生成的光以便在大于单独LED封装的光导1264的范围上扩散出光,这可以提供更愉快的视觉外观。光图案可以提供与与可穿戴系统或触摸板1260的用户交互相关联的视觉反馈。光图案也可以提供与用户的环境中的对象相关联的信息(诸如用户与对象之间的相对位置)。
光导1264的第二部分1364可以定位在触摸传感器1350上。例如,光导1264可以以0.75mm至2mm的嵌入部定位在触摸传感器1350上。由于触摸传感器1350的一部分可在光导1264下面延伸,因而光导1264不仅可以提供视觉和触觉反馈,而且可以由用户致动。如由手指1310所示,用户可以例如通过触摸、轻叩、滑动、或按压光导1264来致动光导1264。因此,当用户致动光导1264时,图腾可以模拟用户接口体验,诸如,例如,轻叩光导上的光的选择性地照亮的“按钮”或“弧”。
光导1264不必定位在触摸传感器1350上。因此,用户可能不能够致动光导1264以与图腾或可穿戴设备交互。在一些实施方式中,虽然1364的第二部分被定位在触摸传感器1350上,但是处理器1770或者本地处理&数据模块260可以被配置为不识别光导1264上的用户的输入。因此,光导1264可以用于提供视觉或触觉反馈,但是当用户致动光导1264时可以不响应。
图13B示出了触摸屏技术的示例。在这些示例中,触摸传感器1350(例如,1350a、1350b和1350)夹在触摸表面1262与PCB 1340之间。触摸屏技术的实施例1362示出了在触摸技术下的力的示例。在该示例中,触摸传感器1350a可以包括压敏传感器,该压敏传感器可以检测施加在触摸表面1262上的多个水平的力。在某些实施例中,触摸传感器1350还可以被配置为将触觉反馈中继到触摸表面1262。
在示例1364中,触摸传感器1350b可以包括应变计。应变计可以位于触摸表面1262的边缘下面。当用户致动触摸表面1262时,触摸传感器1350b可以通过测量触摸表面1262的应力确定用户的手势(例如,按压或轻叩手势)。
示例1366示出了内插力敏电阻触摸传感器技术(IFSR)。触摸传感器1350c可以使用其灵敏度水平可以取决于压力水平而改变的力敏电阻器。因此,触摸传感器1350c可以检测施加在触摸表面1262上的多个水平的力。
图13C和13D示出了图腾的示例触摸板的附加的剖视图。剖视图1380示出了顶盖1381a和顶盖1381a下面的顶壳体1381b。顶盖1381a或顶壳体1381b或组合可以是图13A中示出的支架1320的一部分。顶壳体可以利用粘合剂附接到光导1264(例如,光管1381c)。光管可以透明或半透明。在各种实施例中,光管1381c可以包括扩散板、扩散膜、蚀刻波导、包括粒子层的透射光学元件、不规则表面、全息图、白表面、毛玻璃、聚四氟乙烯(PTFE或Teflon)、乳白玻璃、灰色玻璃、彩胶等。包括光学漫射材料的光管的实施例有利地可以漫射并且扩散来自LED 1383a的光,以使得在方向1384上输出的光表现为具有总体基本上连续的发光(当所有LED照亮时)而不是表现为分立单独的LED(如果光管基本上透明)。
顶壳体1381b也可以使用粘合剂附接到白色Mylar 1381c(或其他反射板)。顶壳体可以包封一个或多个LED 1383a。例如,顶壳体可以包括RGB LED,该RGB LED包括红色LED、绿色LED和蓝色LED的封装。因此,如果触摸板包括12个RGB LED,则触摸板可以包括12个顶壳体结构,每个顶壳体结构包括RGB LED。作为另一示例,顶壳体可以包括用于触摸板的所有12个RGB LED。
顶盖邻近触摸盖1383d。触摸盖可以是图13A中示出的触摸表面1262的实施例。触摸盖可以使用触摸盖粘合剂1383c附接到触摸板1383。触摸板包括参考图12A所描述的力-触觉部件的实施例。如参考图13D进一步描述的,粘合剂堆叠1386可以夹在触摸板的一部分与顶壳体的一部分之间。粘合剂堆叠1386可以用于固定地将触摸板的一部分与顶壳体的顶部附接。
粘合剂堆叠1386可以包括两层:减震泡沫垫(例如,从Rogers Corp.Rogers,CT可得的薄龙(Poron)),以及挠性(flex)和粘合层。薄龙垫1387a的顶部可以附接到触摸板的底部,并且薄龙垫的底部可以附接到挠性和粘合层1387b。弹性和粘合层可以附接到顶壳体。薄龙垫可以包括两个0.2mm厚和一个1.00mm厚的粘合剂。一个1.00mm的粘合剂可以定位在两个0.2mm厚的粘合剂之间。可选地,两个0.2mm厚的粘合剂中的一个可以在1.00mm厚的粘合剂与另一0.2mm厚的粘合剂之间。
返回参考图13C,一个或多个LED 1383a可以附接到触摸板。LED可以在方向1382上发射光。光可以到达光管,该光管可以通过全内反射(TIR)在光输出方向1384上传送光。光管的底部也可以附接到白色Mylar的一部分。白色Mylar(或其他反射板)可以反射由LED发射的光的一部分以增加在光输出方向1384上输出的光量。光管可以漫射来自LED的光,以使得光输出表现为更多有角度地连续输出而不是单独分立光源。
触摸板的仰视图
图13E示出了示例触摸板的仰视图。触摸板1390可以是触摸板1260的实施例。触摸板1390可以包括12个LED 1394a,但是其他数目的LED也是可能的。在该示例中,12个LED1394a是圆周等间隔的,但是在其他示例中(诸如参考图14B和15所描述的示例),LED之间的间隔可以不必相等。12个LED可以位于触摸板的底部。触摸板可以选择性地照亮LED以产生可以表现为触摸板周围的光环的光图案。
LED可以被附接到壳体1392。壳体可以具有两个对准针孔和三个卡扣口1394e。两个对准针孔可以在触摸板的直径的相对端。三个卡扣口可以等间隔。对准针孔1394d和卡扣口1394e可以用于相对于图腾本体对触摸板进行取向和定位。卡扣口1394e也可用于将触摸板1390固定到图腾本体。
触摸板1390可以采用触摸屏技术,诸如,例如,力挠性堆叠1394b。力挠性堆叠1394b的一部分可以叠置在触摸板部件区域1394c的顶部上。力挠性堆叠1394可以包括单独的或与触摸传感器1350组合的触摸表面1262。力挠性堆叠可以检测触摸板1390上的用户输入,诸如例如,按压、滑动、轻叩、触摸等。
在某些实施例中,触摸板部件区域可以包括PCB 1340。触摸板部件区域可以包括力-触觉部件(诸如,例如,触觉致动器)、微处理器、一个或多个通信单元(例如,例如,ADC)等。
触摸板的俯视图
图14A示出了图腾的示例触摸板的俯视图。图14A中的触摸板1260可以包括支架1320、光导1264、和触摸表面1262(其可以进一步分解为可交互区域1262a和1262b)。光导1264可以被定位在光源(例如,LED)1330(以图14A中的虚线示出)的顶部上。
有利地,在该实施例中,触摸板1260可以被分成三个可交互区域:光导1264、触摸表面的第一部分1262a、和触摸表面的第二部分1262b。如参考图12A和13A所描述的,每个可交互区域可以映射到一种类型的用户交互。例如,用户可以触摸光导1264以在浏览器上向前/向后移动,而在触摸表面的第二部分1262b上滑动以向上/向下移动网页内容。用户还可以在触摸表面的第一部分1262a上以圆周运动滑动以使虚拟对象更接近(或更远离)用户而移动。
虽然该示例包括三个可交互区域,但是在其他实施例中,图腾可以包括更多或更少可交互区域。例如,不是将触摸表面分成两个可交互区域(对应于第一部分1262a和第二部分1262b),触摸表面可以被分成4个可交互区域,其中,每个区域占用触摸表面的一个象限。触摸表面还可以仅包括一个可交互区域。附加地或者替代地,光导1264可以不是可交互的,因为例如处理器1770或可穿戴系统的另一模块可以不被编程为识别来自光导1264的用户输入,或者触摸传感器1350不在光导1264下面延伸。
映射到触摸区域的交互的类型也可以基于用户交互的类型来定制。例如,当用户正观看电视时,触摸板可以模拟光导1264上的4路d板(上、下、左、右)。但是如果用户正浏览网页,则光导1264可以支持向后/向前用户接口操作。
可交互区域还可以向用户提供视觉或者触觉反馈。例如,触摸表面1262可以被配置为提供触觉反馈,而光导1264可以提供触觉反馈和视觉反馈(例如,经由LED光环的光放置或者运动图案)。
光源的布局
图14B示出了与触摸板相关联的光源(例如,LED)的示例布局的概况。图14B示出了具有周长上的12个LED(示出为LED 0、LED 2...LED11)的可见圆形表面1452。这些12个LED可以用于表示当其以特定序列照亮时的特定信息。例如,每个LED可以被分配给位,因此导致12位字。如参考图24B、20A和20B所描述的,可穿戴设备的面向外的成像系统464可以捕获LED的显示序列。可穿戴系统然后可以分析图像并且从显示序列提取信息。例如,所提取的信息可以用于将图腾与可穿戴设备配对、校准图腾等。例如,当LED 0、3、6、9照亮时,可穿戴设备可以识别出可穿戴设备与图腾之间的配对被发起。因此,可穿戴设备可以搜索其环境中的无线(例如,蓝牙)设备以确定是否存在任何新设备(诸如与LED相关联的图腾)。当LED是多色LED(诸如例如,RGB LED)时,表示LED光图案的信息量可增加(例如,以大于12位字)。例如,LED 6、7、8处的蓝光可以指示图腾处于配对模式,而LED 6、7、8处的黄光可以指示图腾处于充电模式。
在一些实施例中,LED可以被划分(例如,被复用)为单独照亮的多个组。每组可以用于表示特定信息。图14B示出了四个示例组(示出为MUX 0(1454a)、MUX 1(1454b)、MUX 2(1454c)和MUX 3(1454d)),其中,每个组包括三个LED。例如,当MUX 1的LED照亮时(例如,LED3、4、5),可穿戴设备可以识别出图腾当前指示图腾的向上运动,而当MUX0的LED照亮时,可穿戴设备可以识别出图腾向左旋转等。
在其他实施例中,可以利用不同数目或者布局的光源或复用组,并且不同信息量(例如,与12位不同的字长)可以由LED的照亮组或序列表示。
如先前参考图12A所描述的,光源可以发射不可见光谱中的光(例如,红外或紫外光)。这样的光可以由可穿戴设备捕获,并且不可见光谱中的光图案也可用于将来自图腾的信息传送到可穿戴设备。信息可以包括图腾的设备信息(例如,用于将图腾与可穿戴设备配对),或者其他类型的信息,诸如,例如,图腾的状态(例如,其在电池中是否低、连接是否建立、当前与图腾配对的设备等)。
图15示出了示例的LED布局或者来自LED布局的光图案。在该示例中,LED例如基本参考北-东-南-西(NESW)坐标系1592放置,在该北-东-南-西(NESW)坐标系1592中,当图腾被保持在用户的手中时,北可以指向远离用户,南朝向用户,东朝向用户的右边,西朝向用户的左边。坐标系1592可以旋转某一度。例如,列1550中的布局主要参考中性位置放置,其中,坐标系1592未旋转。相反,列1570和1580中的布局从NESW坐标系1592中示出的基本位置顺时针旋转15度。
LED布局可以是用户可调节的。例如,图腾上的触摸板(或光导)可以机械地旋转。作为示例,图腾的LED布局可以初始包括对于右手用户的顺时针15度旋转。然而,当左手用户使用相同图腾时,左手用户可以逆时针旋转触摸板30度以允许使用他或她的拇指与触摸板更好交互。列1560和1580中的示例布局可以包括12个LED。这些LED可以彼此邻近放置。例如,12个LED可以没有间隔地彼此靠近放置以形成如图案I中示出的圆形布局。
在一些实施例中,两个相邻LED可以通过之间的间隔放置(如由列1550和1570中的图案示出)。空间可以粗略是一个LED的尺寸。例如,列1550和行1540中示出的图案D可以包括6个LED,其中,它们以彼此隔开相同距离粗略地放置。然而,在一些情况下,为了产生列1550和1570中的图案,图腾可以选择性地关闭或不包括一个或多个LED。例如,图案D可以包括12个LED(而不是6个LED)并且12个LED中的6个可以不在图案D中照亮。相反,如果用户改变用户接口操作,则可以照亮比如图案D中示出的6个LED更多或更少。有利地,在一些实施例中,图腾可以节省电池消耗,因为使用更少的LED(通过其之间的间隔)或者因为LED可以选择性地关闭以实现期望的照亮图案(诸如图15中示出的照亮图案)。另外,通过将照亮的LED彼此隔开(物理地或者通过不照亮一些中间LED),用户可能不需要将他或她的拇指移动到精确位置以便执行某个用户接口操作,这在一些情况下可以减少用户疲劳。
LED可以被分成多个组(还参见参考图14B描述的示例复用组)。图15的行1510、1520、1530和1540示出了分组LED的示例方式。例如,行1510中的布局A和G包括LED的2个组,其中,每个组由不同颜色表示。行1520中的布局B和H包括3个组;行1530中的布局C、D和F包括4个组,并且布局D和I包括6个组。每组LED可以具有类似特性,诸如例如,类似光图案、用户交互的类似反应(例如,全部同时照亮)等。附加地或者可替代地,如参考图14B所描述的,每组LED可以用于表示特定信息。例如,当其面向外的成像系统捕获到与图案B中的顶弧相关联的一个或多个LED照亮时,可穿戴设备可确定用户可以进入视频记录模式。
有利地,LED布局可以与图腾的抓取方向对准。布局A-I(以黑色强调)是这样的示例。在这些布局中,当用户抓取图腾时,用户可以自然地到达LED的组,而无需他或她的手的显著调节。
在某些实施方式中,LED的仅一部分是用户可交互的。如果用户可以致动LED(或者与LED相关联的光导),则LED可以是可交互的。例如,图案E包括4个LED组:顶弧、底弧、左弧、和右弧,其中,每组具有3个LED。用户可能能够致动顶弧和底弧(例如,通过按下这些弧上面的光导),但是不能够致动左弧和右弧。然而,左弧和右弧仍然可以单独或与顶弧和底弧组合来提供视觉或触觉反馈。类似考虑适用于图15中示出的其他布局。
除了或者替代LED的物理位置,图15中的图案可以是由LED照亮的光图案。例如,图腾可以通过照亮12个LED的环呈现图案E,而通过照亮12个LED的环中的每隔一个LED呈现图案D。作为另一示例,不是用户旋转触摸板或光导,图腾可以被编程为基于用户是左手还是右手来调节光环的放置。图腾可以对于左手用户在1点钟位置处显示弧,但是对于右手用户在11点钟位置处显示相同弧。弧可以与用户接口操作相关联,诸如例如,向上移动网页。
虽然在图腾1200方面描述了用户输入设备的许多实施例,但是这用于图示并且不是对可与可穿戴系统200一起使用的用户输入设备的类型的限制。例如,在其他实施例中,显示屏(或其变型)可以用于向用户显示照明形状和图案。例如,在这些实施例中的一些中,智能电话可以用作图腾并且可以在其显示屏上显示各种形状和图案。在一些示例中,图腾1200可以包括显示屏,该显示屏可以是触敏的(类似于智能电话的表面)。在包括显示屏的一些这样的实施例中,照亮的光导1264的使用可以是可选的,因为显示屏可以用于显示本文所描述的照亮图案和转换序列。
光图案的放置和运动的示例
图16A和16B示出了来自图腾(或其他类型的发光用户输入设备)的光环的光发射的示例的放置或者运动图案。如上文所描述的,光环可以包括触摸板区域周围的图腾的照亮部分。如图16A和16B中示出的实施例中示出的,光导基本上漫射由单独光源发射的光,以使得光环表现为环或环的弧状部分而不是单独的分立光源。
可以由光环投射的光图案的放置和运动可以包括一个或多个特征,诸如例如,形状、颜色、亮度、位置、尺寸、运动、动画、其他视觉效果(例如,闪耀或闪烁、淡入、淡出)等。例如,图16A示出了四个示例图案。在图案1612中,光环被示出为具有在2点钟位置的明亮的粉红色的浅蓝色。图案1614中的光环具有4个彩色弧:黄色、绿色、蓝色和红色,其对应于触摸板的顶部、底部、左侧和右侧位置(分别地)。图案1616示出了深蓝色光环,并且图案1618示出了具有顶部的浅蓝色弧的深蓝色光环。
光环的光放置或者运动图案可以向用户和用户的环境中的人提供视觉反馈。光放置或者运动图案可以基于上下文信息来确定,诸如例如,用户的环境、用户的特征、与对象相关联的信息、过程、可穿戴系统的部件、与可穿戴系统的用户交互等。
作为基于用户的环境来生成光环的示例,图腾1200中的环境传感器1710(下文参考图17A、17B所描述的)可以是可以检测用户是否在亮或暗环境中的光传感器。如果用户在黑暗环境中,则图腾1200可以显示具有较亮的颜色(诸如白色)的光环以帮助用户感知光环。另一方面,如果用户在明亮环境中,则图腾1200可以显示较暗的颜色以帮助用户将光环与用户的环境中的环境光区分。作为另一示例,在暗室中,光环中的光的强度可以减小(例如,“夜间模式”),因为在暗环境中容易感知照亮光环。相反,在亮环境中(例如,在外面的阳光中),光环中的光的强度可以增加,以使得光环图案在亮环境中可见。
光环中的图案还可以基于用户的特征,诸如例如,用户的生理数据、人口统计信息(例如,年龄、位置、职业、偏好等)等。例如,当用户正玩竞速游戏时,图腾可以显示对应于用户的驾驶方向的光环。光环的颜色可以初始是红色。然而,当可穿戴系统(诸如,例如,图腾或HMD上的环境传感器)检测到用户的心率或呼吸率超过阈值条件时,可穿戴系统可以确定用户处于情绪紧张状态。因此,为了缓和用户的情绪状态,可穿戴系统可以将光环的颜色从红色改变为蓝色(诸如图案1618,其中,浅蓝色弓形示出了驾驶的方向)。
与对象相关联的信息例如可以包括与对象相关联的通知或警报、对象的特征(诸如例如,功能、类型、位置、形状、取向等)等。作为示例,对象可以是通过HMD显示给用户的虚拟电子邮件应用。由虚拟电子邮件应用接收到的新电子邮件可以通过在图腾上具有虹彩光图案的光环向用户指示。作为另一示例,光环可以是对象在用户的环境中是否可感知的指示。例如,在寻宝游戏中,光环可以对应于宝藏的位置。如果宝藏位于用户的右前位置,则图腾可以在光导的1点钟位置处显示光环(参见例如,图案1612)。作为又一示例,如果对象不可由用户交互,则可穿戴系统可以被配置为不显示光环。
如参考图20A-21E所描述的,光环还可以用于导引过程或者指示过程的状态。例如,可穿戴系统可以应用计算机视觉算法来分析用于将图腾与另一设备配对的光环的放置。可穿戴系统还可以使用计算机视觉算法分析光图案的外观以校准用户的环境中的图腾。当配对或校准状态完成时,图腾可以显示图案1616以向用户指示过程已经完成。
光环还可以用于指示与可穿戴系统的部件相关联的信息。例如,图腾可以用于定位用于向可穿戴设备提供电力的电池组。在该示例中,电池组可以包括电磁发射器,而图腾可以包括电磁传感器。电磁传感器可以检测由电磁发射器生成的磁场并且因此计算图腾与电池组之间的相对位置。如由图腾所显示的光环可以对应于图腾与电池组之间的相对位置(以帮助用户找到电池组)。例如,具有3点钟位置处的大弧的光环可以指示电池组靠近用户并且在用户的右边。然而,具有3点钟位置的小弧的光环可以指示电池组远离用户但是仍然在用户的右边。作为另一示例,当可穿戴设备的电力低时,图腾可以显示具有指示电池将没电的小弧的光环。虽然在电池组方面描述,但是可穿戴系统的任何部件或其他(例如,用户的汽车钥匙)可以包括可由图腾跟踪的电磁发射器,该图腾可以照亮光环以辅助用户找到部件。
光环还可以提供与可穿戴系统的用户交互的指示。有利地,该指示可以通知用户的当前交互的用户环境中的人。例如,当用户正记录视频时,光环可以以红色闪烁。因此,靠近用户的人将能够看到该闪烁的红色光图案并且知道他或她不应当中断用户的视频记录体验。作为另一示例,当用户赢得游戏中的等级时,则光环可以利用与游戏的等级相同颜色照亮以向用户的朋友示出用户已经通过等级。
除了或者取代视觉反馈,光环可以导引用户交互。例如,光环可以示出具有不同颜色(如由效果1614示出)的4个弧(顶部、底部、左侧和右侧)以指示用户可以使用图腾的触摸板作为d-板。作为另一示例,当用户正使用显示器220观看电视节目时,图腾可以呈现图16B中的光环图案1662。在图案1662中包括红色弧和蓝色弧。红的弧和蓝的弧的弧长可以是约0.25π。然而,当用户致动图腾时(诸如通过轻叩图腾的触摸表面),图腾可以呈现弧的淡入效果(如由图16B中的过程1示出的)。作为淡入效果的结果,如图案1664中所示,红色弧和蓝色弧的长度可以从约0.25π增加到0.75π。红色和蓝色弧的亮度也可以由于淡入效果而增加。该增加的亮度和弧长可以向用户提供用户可以在触摸表面上向左或向右滑动的更清楚的指示。但是当图腾检测到用户未与图腾交互一阈值持续时间时。图腾可以呈现如由图16B中的过程2示出的淡出效果。因此,光环从图案1664改变到1662。因此,弧的尺寸和弧的亮度将减小。有利地,通过减小弧的尺寸和弧的亮度,当用户不与图腾相互作用时图腾可以降低电池消耗。
在一些实施例中,图腾1200可以结合触觉、听觉、视觉、或其他效果呈现光环以提供与上下文信息相关联的信息或导引用户交互。
图腾的其他部件
图17A和17B示出了图腾1200的部件的示例。如参考图12A和12B所描述的,示例图腾1200可以包括触摸板1260(其可以包括触摸表面1262和光导1264)、触发器1212和图腾本体1214。光导1264可以包括用户可交互区域(例如,触敏)并且可以至少部分地或完全地围绕触摸表面1262。图腾1200还可以包括各种部件,其中的至少一些可以设置在图腾的本体1214内部。这些部件将在下文中进一步描述并且可包括环境传感器1710、电池1720、近场通信(NFC)接口1732、网络接口1734、触觉致动器1760、和处理器1770。连接接口1222可以设置在本体1214的底部处,例如以可移除地将图腾1200附接到底座。连接接口1222可以用于提供电力以对电池1720充电并且提供图腾的部件与外部设备(例如,计算设备)之间的通信链路。
缓冲器
图腾1200可以包括按钮1266(被称为缓冲器),在图17B中示出的示例中,该按钮1266位于图腾的前端、触发器1212上面和触摸板1260下面。缓冲器1266可以为用户提供人体工程学上舒适的地点以使他或她的食指搁置。缓冲器1266可以包括实现为例如可下压按钮、电容式触摸传感器、力-触觉元件等的触敏表面。
在图17B中示出的示例中,用户可以主要使用三个手指致动图腾1200,例如拇指致动主页按钮1256或触摸板1260,食指致动缓冲器1266,以及中指致动触发器1212。这样的三手指可致动图腾可以允许用户迅速且有效地提供用户输入,而不过度和疲劳使用仅一个手指(如用台式计算机的鼠标设置可能发生的一样)。不同按钮1212、1256、1266可以提供不同功能,例如,取决于用户是否在应用内工作、通过应用启动栏滚动、选择环境中的对象等。在一些情况下,用户可以仅使用食指在按压缓冲器与拉动触发器之间来回切换。
作为缓冲器功能的示例,当用户正查看应用时轻叩缓冲器可以带来针对该应用的选项菜单,而长按缓冲器可以激活环境中的虚拟对象的操控序列。例如,缓冲器的长保持可以抓取对象,并且当将图腾1200指向对象时缓冲器上的长按可以激活对象的直接操控(例如,以移动或重新取向对象)。以操控序列轻叩缓冲器(或拉动触发器)可以结束序列。
环境传感器
环境传感器1710可以被配置为检测用户周围的环境的对象、刺激、人、动物、位置、或其他方面。环境传感器可以包括图像捕获设备(例如,相机)、麦克风、IMU、加速度计、指南针、全球定位系统(GPS)单元、无线电设备、陀螺仪、高度计、气压计、化学传感剂、湿度传感器、温度传感器、外部麦克风、光传感器(例如,测光计)、定时设备(例如,时钟或者日历)、或其任何组合或子组合。在一些实施例中,环境传感器还可以包括各种生理传感器。这些传感器可以测量或者估计用户的生理参数,诸如心率、呼吸率、皮肤电反应、血压、脑电波状态等等。环境传感器还可以包括被配置为接收信号(诸如激光、可见光、光的不可见波长、或声音(例如,可听声、超声、或其他频率))的发射设备。在一些实施例中,一个或多个环境传感器(例如,相机或光传感器)可以被配置为测量环境的环境光(例如,亮度)(例如,以捕获环境的照明条件)。物理接触传感器(诸如触摸传感器)、应变计、边缘探测计(curb feeler)等也可以被包括作为环境传感器。
通过环境传感器1710获取的信息可以用于确定显示在图腾上的光环的光放置或者运动图案。例如,环境传感器可以使用GPS传感器或电磁传感器(用于检测与物理对象相关联的电磁信号)确定用户与用户的环境中的物理对象之间的相对位置。图腾可以呈现其放置可以对应于物理对象的位置的光环。例如,如果对象在用户的前面,则图腾可以在光导1264上的12点钟方向上呈现光环。
附加地或者可替代地,由环境传感器1710获取的信息可以用于一个或多个用户接口操作。例如,图腾1200可以使用IMU检测图腾的6DOF运动。例如,当用户在玩游戏时旋转图腾1200时,由用户控制(并且经由可穿戴设备显示给用户)的化身(或其他虚拟对象)可以因此基于由IMU获取的运动数据来旋转。附加地或者可替代地,为了移动或旋转图腾1200,用户可以在触摸板1260上提供输入。例如,用户的拇指朝向或远离用户的运动(例如,沿着图腾的长轴)可以朝向或远离用户移动虚拟对象。用户的拇指在触摸板1260上在横向方向上来回运动可以缩放虚拟对象的尺寸(例如,从更大到更小或反之亦然)或者用户的拇指围绕触摸板的旋转可以旋转虚拟对象。
虽然在该示例中,环境传感器位于图腾1200上,但是在一些实施例中,环境传感器可以位于本文所描述的可穿戴系统的其他部件处。例如,环境传感器(诸如相机或生理传感器)可以是可穿戴系统200(在图2中示出)的显示器220的一部分。
电池
电池1720存储用于图腾1200的电力。图腾可以使用处理器1770确定电池1720的当前状态。例如,处理器1770可以测量并且计算电池1720中剩余的电量、当前是否正使用电池1720、以及电池1720的剩余寿命(诸如当电池1720将要替换时)。如在图21A-21E中进一步描述的,电池1720的当前状态可以经由光导1264、主页按钮1256、位于图腾本体1214的底部1244(例如,在图12A中示出)的LED电源指示器、或显示器上呈现的视觉反馈来可视化。
图腾1200还可以使用处理器1770确定图腾的功耗水平。例如,图腾可以基于输出某个光签名所需的估计电流来估计功耗。光签名可以包括与过程、状态、对象、或用户交互的指示相关联的光环的某个光放置或者运动图案。作为与光签名相关联的估计电流的示例,图腾1200可能需要5.6mA来执行3或6DOF校准;48mA来找到用户的环境中的对象或指示方向;以及54mA来执行无线(例如,蓝牙)配对。作为对于光签名的估计电流的另一示例,电流的14.85mA可以消耗以提供电池小于15%的指示;21.6mA可以用于指示图腾处于睡眠模式或空闲模式;以及电流的72.4mA可以供应以提供输入通知(诸如,例如,新消息)。
这些估计电流仅是示例。需要的特定电量可以取决于各种因素,诸如使用的LED的类型、LED的颜色、光环的放置和运动光图案等。例如,如果触摸板1260的每个RGB LED被设定为一直以100%亮度显示白色而不是以100%亮度显示绿色,则图腾电池1720可更快地消耗2小时。这是因为当RGB LED显示绿色时,仅利用1/3的LED(例如,RGB LED中的绿色LED),但是当RGB LED显示白色时,利用RGB LED中的所有LED。
为了降低总体功耗,LED(特别地可交互的LED)可以隔开以便降低触摸板上的LED的总数。例如,图腾可以采用图15中的列1550和1570中示出的布局。有利地,在一些实施例中,通过将LED隔开,功耗可以减少达50%。功耗的特定降低量可取决于LED的布局。例如,图15中的图案D可以具有比图案A更低的功耗,因为图案D具有更少的照亮的LED。作为用于降低功耗的另一示例,图腾可以以较低的亮度(诸如,例如,在<40%亮度处)运行LED。
图腾可以基于用户正交互的对象来管理功耗。图腾可以关闭不具有活动用户接口选项的LED。例如,图腾可以使用图15中示出的LED布局E模拟d-板。然而,在游戏期间,可以在某种等级处禁用向下按钮。因此,图腾可以未被配置为不显示图腾弧。附加地或者可替代地,图腾可以基于图腾、显示器、或可穿戴系统的其他部件的状态来管理功耗。例如,图腾可以在检测到一定不活动量时将光环关闭。图腾可以通过计算由IMU获取的图腾的运动数据量做出这样的检测。
在一些实施例中,可穿戴系统可以包括电池组,其可以被附接到用户(诸如例如,在用户的腰部处)。电池组可以被连接到图腾或者可穿戴设备以供电。电池1720可以是电池组的一部分或者可以与电池组结合用于向图腾1200供电。
近场通信(NFC)接口和网络接口
NFC接口1732和网络接口1734可以被配置为允许图腾与目标对象配对或通信,诸如例如,另一图腾(或其他用户输入设备)、可穿戴显示器、个人计算机、耳机、按键、服务器、或另一物理对象。NFC接口1732可以用于短距离无线通信(诸如当图腾距目标对象10cm或更小距离时)。在一些实施例中,当启用的NFC设备—例如图腾和HMD—彼此接近(在约10cm内)定位并且无线地交换信息时,NFC采用两个环形天线之间的电磁感应。信息的该交换可以以从106至424Kbit/s范围的速率通过ISO/IEC 18000-3空中接口在13.56MHz的全局可用无许可射频ISM频带内操作。各种通信协议和数据交换格式可以用于NFC。一些非限制性示例包括:ISO/IEC 14443和Felicia、ISO/ICE 18092、由NFC Forum和GSMA组定义的标准等。
网络接口1734可以被配置为经由网络建立连接并且与目标对象通信。网络可以是LAN、WAN、对等网络、射频、蓝牙、Wi-Fi、基于云的网络、或任何其他类型的通信网络。
例如,图腾和可穿戴设备可以使用无线通信协议(诸如例如蓝牙低功耗(BLE))配对。在一些实施例中,BLE可能有利,因为其可以维持BLE音频流期间的带宽。如参考图20A-20C进一步描述的,各种技术可以用于将可穿戴设备与图腾配对。例如,可穿戴系统可以通过分析通过面向外的相机获得的图腾的图像检测由图腾呈现的某个光图案。光图案的检测可以触发可穿戴系统开始配对过程。在配对过程期间,用户可以经由对话框或用户接口(UI)向导与可穿戴显示器交互以指定与图腾、可穿戴显示器相关联的设置和参数、图腾与可穿戴显示器之间共享的信息的类型、通信信道的类型等。
虽然在该示例中,NFC接口1732和网络接口1734被示出为单独部件,但是在一些实施例中,NFC接口1732和网络接口1734可以是相同通信设备或系统的一部分。
触觉致动器
图腾1200可以包括触觉致动器1760。如参考图12A所描述的,触觉致动器1760可以向用户提供触觉反馈。一个或多个触觉致动器1760可以实现在图腾1200中。触觉致动器可以位于触发器1212、触摸板1260、或图腾本体1214处。
触觉反馈可以基于用户的交互、与对象或用户相关联的上下文信息、可穿戴设备的图腾或其他部件的状态等来提供。
处理器
硬件处理器1770可以被配置为处理由环境传感器1710获取的数据。处理器1770还可以经由NFC接口1732或网络接口1734从另一设备(诸如可穿戴显示器或另一配对设备)接收数据并且向其发送数据。处理器1770可以分析这些数据以确定光环在给定时间的放置或者运动图案。在一些实施例中,处理器1770可以与另一计算设备(诸如例如,可穿戴设备、远程服务器、或个人计算机)结合工作来分析。例如,处理器1770可以使用环境传感器1710检测用户的运动。处理器1770可以将用户的运动数据传递到本地处理和数据模块260或者远程处理模块270以用于进一步分析。处理器1770可以接收来自本地处理和数据模块260或者远程处理模块270的分析结果。例如,处理器1770可以接收关于游戏中的竞争者的位置和运动轨迹的信息。基于该信息,处理器1770可以指令LED发射光,以用于显示对应于竞争者的位置和运动轨迹的光环。
硬件处理器1770可以处理来自图腾1200的用户的致动的各种用户输入。例如,如参考图12A-17B所描述的,硬件处理器1770可以处理触摸板1260、触发器1212、主页按钮1256、缓冲器1266等上的用户输入。作为示例,硬件处理器可以通过处理来自触摸传感器的信号检测触摸板1260上的用户的手势。如本文所描述的,硬件处理器1770可以处理用户的输入并且指令图腾1200的其他部件(诸如例如,LED或致动器1760)以提供用户对图腾1200的致动的指示。
连接接口
如参考图12A所描述的,连接接口1222可以用于与另一设备建立连接。连接可以是有线连接。例如,连接接口1222可以包括USB连接器。连接接口1222还可以包括USB端口,诸如例如,USB-B型端口、USB-A型端口、微USB、或USB型C端口等。连接接口1222还可以包括用于连接到电源以用于充电的电源线。
图17A和17B中示出的示例部件是非限制性示例,并且图腾1200可以包括比示出的更少或更多或不同的部件。例如,图腾1200可以不具有NFC接口1732。作为另一示例,图腾1200可以包括:被配置为发射光(诸如红外光)的光学发射器;或被配置为生成或者感测磁场(例如,用于电磁跟踪)的电磁发射器等。作为又一示例,NFC接口1732和网络接口1734可以是相同通信系统的一部分。
配置光环的光图案的放置和运动的示例
本文所描述的照亮的光环可以由可穿戴系统的用户、开发者、或另一实体定制。例如,可穿戴系统的用户可以设定与光环的光图案的放置和运动相关联的偏好。偏好可以与参考图16A和16B所描述的上下文信息相关联。作为示例,用户可以将与系统通知(诸如低电池状态)相关联的光环的颜色设定为蓝色,同时将与游戏对象相关联的颜色设定为红色。用户可以单独或者与图腾组合经由可穿戴设备设定他或她的偏好。基于用户的偏好,当用户与可穿戴系统交互时,图腾可以自动地呈现照亮的光环。在一些情况下,用户可以通过致动图腾(诸如图12A中示出的触发器1212)或经由姿势关闭照亮的光环。例如,面向外的成像系统464可以捕获与关闭光环相关联的用户的手势。可穿戴系统可以使用计算机视觉算法从由面向外的成像系统获取的图像识别该手势并且因此指令图腾关闭照亮的光环。
光环的放置和运动光图案还可以使用应用编程接口(API)配置。图18A-18D示出了用于配置光环的光放置或者运动图案的示例编程接口。API可以通过与用户或开发者交互以设定图腾的光环的光图案。图18A示出了包括图腾的可视化1802的API。图腾的可视化1802包括显示在可视化触摸板1804上的光环1810的图像。在该示例中,光环1810的长度被设定为0.25,其可以是可视化触摸板1804的顶部周长的约四分之一。光环1810的端点在12点钟位置和3点钟位置处。
编程接口1800可以包括应用栏1830。应用栏1830可以包括配置光环的光图案的应用类型。例如,在图18A中,编程接口1800的用户正配置与游戏应用相关联的光图案。用户还可以配置与网络应用、系统应用、场景(诸如例如,环境中的对象的位置)、用户的特征(诸如例如,基于用户的右手或左手关联光环的图案)等等相关联的光图案。
编程接口1800还可以包括弧配置标签1820。弧配置标签1820可以包括用于配置光环的形状(例如,弧、环等)、尺寸(例如,角弧长)、颜色、视觉效果、或取向(例如,N、S、E或W)的各种选项。视觉效果可以包括淡入、淡出、闪烁、闪耀、顺时针或逆时针旋转等。例如,编程接口1800可以将光环1810(或光环的一部分)与淡入或淡出效果相关联。编程接口1800还可以改变弧长,例如,从光环的周长的1/4改变到周长的3/4。其还可以改变光环1800的旋转(例如,从顺时针到逆时针)或者改变光环1800的位置(例如,从触摸表面的右上角到右下角)。
作为使用弧配置标签1820配置光环的光放置或者运动图案的示例,图18B示出了当弧的长度被设定为-0.25时的示例光环1812。在该示例中,光环1812中的弧的长度是触摸表面的周长的约3/4。光环1812的端点在9点钟位置和6点钟位置处。
编程接口1800还可以包括图18C中示出的颜色选择工具1830。颜色选择工具1830可以包括搜索栏1832,在该搜索栏1832中,编程接口的用户可以输入光环的颜色。光环的颜色可以以超文本标记语言(HTML)颜色代码的格式输入。颜色选择工具1830还可以包括颜色调节面板1834,在该颜色调节面板1834中,用户可以调节颜色的饱和度、亮度和色调。颜色选择工具1830还可以包括RGB工具1836,该RGB工具1836可以选择基于RGB之间的相对比例的颜色和黑/白色。用户可以使用指针设备(例如,鼠标)从颜色选择工具的面板选择颜色、饱和度、亮度、色调等。
在图18C中示出的示例中,用户已经将光环1814的颜色设定为蓝色。用户还可以使用颜色选择工具1830改变光环1814的颜色或使用颜色调节面板1834调节选择的颜色的饱和度、亮度、或色调。在一些实施例中,可以预设光环的颜色,例如,基于方案或者样式表。可穿戴系统可以基于系统默认颜色或基于上下文信息来预设颜色。编程接口1800的用户可以使用颜色选择工具1830改变或者调节预设颜色。
图18D示出了编程接口1800的另一部分,其包括可视化标签1842、源代码标签1844和图案调节工具1850。
图案调节工具1850可以用于配置光环。例如,编程工具的用户可以调节与弧长、旋转和颜色相关联的滑动条以提供光环的各种视觉效果。用户还可以通过设定x、y、z坐标值光环调节光环的位置和旋转(如在转换标签1852中示出的)。用户还可以调节与图腾相关联的照明和运动效果,诸如淡入/淡出效果。
可视化标签1842可以用于可视化由图案调节工具1850、弧配置标签1820、或颜色选择工具1830产生的光环的一个或多个效果。作为示例,可视化标签1842可以与图腾的可视化1802相关联。当编程工具1800的用户选择可视化标签1842时,编程工具1800可以显示图腾的可视化1802,以使得用户直接感知光环的更新的效果。
源代码标签1844包括与图腾的放置和运动光图案相关联的源代码。例如,当编程工具1800的用户使用弧配置标签1820、颜色选择工具1830、或图案调节工具1850配置光环时,源代码可以基于用户的选择自动更新。源代码(或可执行版本)可以使用有线连接(例如,经由连接接口1222)或无线连接(例如,经由网络接口1734)通信给图腾。附加地或者可替代地,源代码(或可执行文件)可以存储在图腾或头戴式设备中(诸如例如,在本地处理&数据模块260中),其可以用于生成模拟信号以控制LED 1330的光图案。
在一些实施例中,光环可以包括多个弧(参见图16A中的示例光环图案1614)。编程工具1800可以允许用户使用本文所描述的技术配置每个弧。图18D中示出的图案调节工具1850可以单独或与弧配置标签1820和颜色选择工具1830组合用于配置光环。
虽然图18A-18D中的示例参考配置光环的光放置或者运动图案来描述,但是类似技术也可以用于配置触觉、听觉、视觉、或其他效果。
利用光环的图腾校准的示例
用户输入设备(诸如本文所描述的图腾)可能需要校准以最小化误差并且改进用户交互体验。例如,图腾的IMU可能需要校准以准确地检测并且响应于用户的图腾的运动。校准通常在制造时完成(例如,当图腾或者IMU制造时)。制造后校准可能困难,因为用户可能不具有图腾的制造商所具有的受控制和精确的校准系统。然而,执行制造后校准对于用户可能有益,因为用户的运动的程度可能变化。例如,当用户摇摆他或她的图腾时,一个用户可能在比其他用户更大的程度地移动他或她的手臂。另外,提供定制的用户体验可能有利,以使得图腾可以具有为不同用户定制的不同程度的响应性。一些用户可能偏好更敏感的图腾(其可以响应于轻微运动),而其他用户可能偏好不太敏感的图腾(其可以被配置为当存在轻微运动时不执行用户接口操作)。
本文所描述的可穿戴系统和图腾可以有利地支持制造后校准,而不需要用户使用制造商的校准系统。图腾可以显示光环。当用户移动图腾1200时,可穿戴系统的面向外的成像系统464可以捕获图腾和照亮的光环的图像。如由面向外的成像系统464所捕获的光环的形状可以基于图腾的位置和取向而不同。可穿戴系统可以使用对象组织器708来识别光环的形状并且因此确定图腾的位置和取向。为了校准图腾的IMU,例如,如基于由面向外的成像系统464捕获的图像所确定的图腾的位置和取向可以与由IMU捕获的位置和取向相比较。可穿戴系统可以基于比较来校正图腾的IMU。
图19A示出了使用照亮的光环的图腾校准的示例。图19A中的示例参考校准图腾1900描述,但是这用于图示并且不旨在是限制性的。在该示例中,图腾1900可以具有3个自由度。3DOF图腾1900可以包括圆形触摸表面1962和围绕触摸表面1962的圆形光导1964。光导1964可以显示圆形光环。3DOF图腾1900可以是本文所描述的图腾1200的示例。因此,触摸表面1962可以是触摸表面1262的示例,并且光导1264可以是光导1264的示例。
在图19A的该示例中,示出了图腾的各种姿势(例如,姿势1910、1920、1930和1940)。图腾的姿势可以包括图腾的取向和位置。例如,姿势1920指示用户已经向下指向图腾。姿势1930示出图腾被指向右边,并且姿势1940示出图腾面向右上位置。姿势1910可以是与图腾的自然静止位置相关联的基准位置。
在用于图腾的IMU的校准过程期间,可穿戴系统可以使用其面向外的成像系统464以捕获用户的环境的图像。用户的环境的图像可以包括图腾的图像。可穿戴系统的对象识别器708可以应用计算机视觉算法来识别捕获的图像中的图腾。对象识别器708还可以应用计算机视觉算法来识别图像中的光环的形状。可穿戴系统可以单独基于单独的光环形状或者基于光环形状与图腾本体的图像的组合来确定图腾的位置和取向。例如,可穿戴系统可以识别与基准位置相关联的形状并且计算与基准位置相关联的形状的改变。基于与基准位置相关联的形状的改变,可穿戴系统可以基于基准位置来确定图腾的位置和取向的改变。例如,如果圆形形状的法线指向未直接朝向成像相机的方向,则具有圆形的形状的光环可被改变为椭圆形的形状。因此,可穿戴系统可以基于到基准位置的改变来确定图腾的当前位置和取向。
作为示例,当图腾1900在基准位置时(如由姿势1910示出),由光导1964显示的照亮光环可以具有圆形形状。另外,当图腾在基准位置时,面向外的成像系统464可不感知到图腾1900的本体。参考姿势1940,可穿戴系统可以基于由面向外的成像系统464获取的图像识别出图腾的本体的部分处于对角位置。可穿戴系统还可以识别出图腾的姿势1940处的照亮光环表现为具有椭圆形而不是圆形形状。基于图腾本体和光环的观察(在其他可能信息中),可穿戴系统可以确定图腾向右倾斜并且面向上。作为另一示例,姿势1920和1930处的光环的形状可以都是椭圆形。然而,姿势1930处的光环的长轴在竖直方向上(并且姿势1930处的短轴在水平方向上),而姿势1920处的光环的长轴在水平方向上(并且姿势1920处的长轴在竖直方向上)。因此,可穿戴系统可以确定图腾在姿势1930处水平定位(例如,面向左或右)并且确定图腾在姿势1920处竖直定位(例如,面向上或下)。
基准位置可以由可穿戴系统定义。在该示例中,基准位置被定义为与姿势1910相关联。在其他示例中,基准位置可以与图腾的其他姿势(诸如姿势1920、1930、1940等)相关联。虽然在该示例中,光环在基准位置处看起来是圆形,图腾可以照亮可穿戴系统可以检测和分析的图腾校准的其他光图案。例如,图腾可以照亮正方形、三角形(例如,具有围绕图腾的触摸表面的3个弧)、重叠线段(具有例如十字形弧或“x”形弧)等等。在某些实施例中,光图案还可以包括具有多种颜色的弧(其对于校准具有更多自由度的图腾(诸如,例如,6DOF图腾)有用)。例如,在光图案包括十字形弧的情况下,图腾可以照亮如图25B中示出的光图案。面向外的成像系统464和对象识别器702可以使用类似技术来确定图腾的位置和取向而不管光环的光图案。
可穿戴系统还可以接收与来自IMU的图腾的位置和取向有关的数据。例如,可穿戴系统可以基于从图腾中的陀螺仪获取的数据来计算图腾的取向。由IMU获取的位置和取向数据可以与基于图腾的图像计算的位置和取向数据相比较。可穿戴系统可以基于该比较来校准IMU。例如,可穿戴系统可以基于由IMU获取的数据来确定图腾1900处于姿势1940。然而,如由可穿戴系统观察的图腾1900的位置可能实际上在姿势1930处。因此,可穿戴系统可以将由IMU观察的位置和取向与姿势1930(如由面向外的成像系统464观察的)相关联以校准IMU。在一些实施例中,作为校准IMU的添加或者替换,可穿戴系统可以存储校正IMU读数使得其表示校准(而不是原始)读数的校准转换(例如,查找表)。
为了利于校准过程,光环可以用于导引用户将图腾移动到某个姿势(例如,位置或取向)。因此,可穿戴系统可以使用面向外的成像系统和IMU获取图腾的位置或取向。图19B示出了光图案被用作用户运动的导引的图腾校准的示例。例如,图腾可以显示图案1972、1974、1976、1978。这些图案可以对应于图14B中示出的MUX 2、0、1、4。例如,MUX 1中的LED3、LED 4、和LED 5可以照亮以显示图案1976。
在校准过程期间,图腾呈现图案1972以向用户指示向右移动图腾以及呈现图案1974以向用户指示向左移动图腾。当图腾呈现图案1976时,用户可以向上移动图腾,但是当图腾呈现图案1978时,用户可以向下移动图腾。一旦图腾(或IMU)已经校准,则图腾可以呈现示出形成图腾的触摸表面周围的圆形形状的实心蓝色的图案1980。除了或者取代图案1980,图腾还可以采用其他指示以示出图腾(或IMU)已经校准。例如,图腾可以提供振动(例如,经由致动器1760)或声音(例如,经由扬声器240)。作为另一示例,图腾可以提供其他视觉指示,诸如淡入或淡出效果、圆形光环的一部分、或其他视觉方案。在一些实施例中,当校准完成时,图腾(例如,处理器1770)可以指令LED停止照亮。
虽然图19A参考校准3DOF图腾1900中的IMU描述,但是类似技术也可以用于校准6DOF图腾或其他类型的用户输入设备。
图19C中的过程1982示出了校准过程的另一示例。图案1984a、1984b、1984c和1984d指示图腾当前校准的当前位置/运动。例如,图案1984a(其示出圆形触摸板的顶部上的弧)可以指示图腾当前与向上运动相关联校准自己,而图案1984b(其示出圆形触摸板的底部上的弧)可以指示图腾当前与向下运动相关联校准自己。作为另一示例,图案1984c(其示出圆形触摸板的右边的弧)可以指示图案当前相对于向右运动校准,并且图案1984d(其示出圆形触摸板的左边的弧)可以指示图腾当前相对于向左运动校准。
在一些实施例中,图案1984a、1984b、1984c和1984d可以由于用户交互而触发。例如,如果用户向右移动图腾时,则图腾可以显示光环1984d并且因此校准与该向右运动相关联的图腾。附加地或者可替代地,如参考图19B所描述的,图案1984a、1984b、1984c和1984d可以自动照亮以导引用户将图腾移动到某个姿势。
一旦图腾已经在所有四个方向(左、右、上和下)上校准,则图腾可以呈现确认脉冲。确认脉冲可以交替显示图案1986a和1986b。例如,图腾可以每隔0.1秒将光环从图案1986a改变为图案1986b(并且反之亦然)。
虽然图19A和19B参考校准IMU描述,但是类似技术也可用于校准其他环境传感器1710。
除了或者替代通过图腾校准过程导引用户,类似技术可以用于校准与特定对象的用户交互。例如,当用户开始玩游戏时,光环的光放置或者运动图案可以用于通过教学过程导引用户。作为示例,当图腾示出图案1984c时,用户可以移动向左移动图腾并且因此显示器可以示出化身的向左运动。用户还可以将图腾的运动与特定用户接口操作相关联。例如,在化身被创建之后,用户可以感知到他或她的化身处于跑步动作。用户可以向前(远离用户)移动图腾以将图腾的向前运动设定为与跑步动作相关联。
在一些实施例中,光环的光放置或者运动图案可以基于校准的类型而不同。例如,当IMU被校准时光环可以处于蓝色,而当用户正配置用于游戏的图腾的运动时可以是绿色。
图腾校准的示例过程
图19D示出了使用与光环相关联的光图案的图腾校准的示例过程1990。示例过程1990可以由可穿戴系统(诸如例如本地处理&数据模块260或远程处理模块270)单独或者与图腾组合执行。
在图19D中的示例过程1990的框1992a处,可穿戴系统可以接收用户的环境的图像。可以通过图4中示出的面向外的成像系统464捕获图像。
在框1992b处,可穿戴系统可以分析图像以识别图像中的图腾(或光环)。图腾可以包括本体和光导。光导可以被配置为显示光环。可穿戴系统可以使用参考图7所描述的对象识别器708来识别图腾、图腾的本体、光环、或光导。对象识别器708可以使用计算机视觉算法以执行这样的识别。
在框1992c处,可穿戴系统可以确定图腾的第一位置。第一位置可以是基准位置。基准位置可以由可穿戴系统预定义,诸如例如图腾的自然静止位置。基准位置也可以由用户识别或者改变。例如,用户可以将基准位置定义为与姿势1910相关联的位置。可穿戴系统可以确定与基准位置相关联的光环的第一光图案。与基准位置相关联的图案可以先前由可穿戴系统存储。在一些实施例中,一旦可穿戴系统识别基准位置,则可穿戴系统可以向用户提示通知,以请求用户将图腾保持在基准位置处,并且因此可穿戴系统可以捕获基准位置处的图腾的图像。
在框1992d处,可穿戴系统可以至少部分地基于图像的分析来识别光环的第二图案。可穿戴系统可以分析图像并且使用对象识别器708识别图案。
在框1992e处,可穿戴系统可以确定相对于第一位置的图腾的位置和取向的第一改变。例如,可穿戴系统基于与基准位置相关联的图案和当图腾处于更新位置时由面向外的成像系统获取的图案来分析光环的图案的改变。除了图像分析之外,可穿戴系统还可以识别光环的第二图案或者基于其他信息计算图腾的位置和取向的第一改变,诸如用户交互或来自未校准的一个或多个环境传感器的数据。例如,用户可以提供示出图腾的位置和取向的改变的指示。指示可以经由姿势或用户输入设备466(诸如例如,将手指指向前面)指示图腾已经从其原始位置向前移动。
在框1994a处,可穿戴系统还可以从需要校准的环境传感器接收与图腾相关联的运动数据。因此,在框1994b处,可穿戴系统可以基于从环境传感器接收到的数据来计算图腾的位置和取向的第二改变。
可穿戴系统可以计算第一改变与第二改变之间的差。在框1992f处,如果可穿戴系统确定第一改变与第二改变之间的差异超过阈值条件,则在框1992g处可穿戴系统可以校准环境传感器。否则,可穿戴系统可以确定环境传感器不需要校准并且提供如框1992h中示出的指示。指示可以包括光环图案的某个放置和运动,诸如,例如,图19C中示出的确认脉冲、或触觉反馈。此外,指示可以由显示器220、扬声器等呈现。
在一些情况下,可穿戴系统可以收集与图腾的多个位置和取向相关联的数据,可穿戴系统可以确定环境传感器是否需要校准或者环境传感器将如何基于收集的数据来校准。例如,可穿戴系统可以确定当图腾左右移动时IMU不需要被校准,但是可能需要相对于向前/向后运动校准。然而,为了校准向前/向后运动,可穿戴系统还可能需要调节用于检测向左/向右运动的IMU。因此,即使IMU可能已经能够以合理的准确度检测向左/向右运动,但是可穿戴系统也可以计算向前/向后运动以及向左/向右运动所需要的调节量。
图19E示出了使用与光环相关联的光图案的图腾校准的另一示例过程1996。可以通过本文所描述的图腾或者可穿戴系统执行示例过程1996。
在框1998a处,图腾可以提供图腾的姿势的第一指示。例如,图腾的光导可以显示具有位于光导的左边的弧的光环。该弧可以向用户提供将图腾向左移动的指示。在一些实施例中,指示也可以由可穿戴显示器或者经由触觉或听觉反馈提供。
在框1998b处,图腾可以获取与姿势相关联的运动数据。例如,当用户向左移动图腾时,图腾的IMU可以检测用户的运动并且将运动数据通信到处理器。
在框1998c处,图腾可以基于运动数据来校准。例如,图腾可以将由IMU检测到的运动与向左运动相关联。
在框1998d处,图腾可以确定其是否已经校准。例如,如果图腾的IMU需要被校准,则图腾可以确定图腾是否已经针对6DOF校准。在框1998f处,一旦图腾已经校准,则图腾可以呈现通知图腾被校准的第二指示。例如,图腾可以示出光导上的闪烁绿色光环以指示图腾被校准。
如果校准过程是不成功的,则过程1996可以返回框1998a以重复校准。
设备与光环配对的示例
可要求两个设备在其配对之前建立无线通信链路(例如,经由蓝牙)。当设备配对时,它们可以共享信息(诸如例如,设备的用户或设备自己的地址、名字和简况)或共享存储在它们相应存储器中的信息。一旦两个设备配对,则它们可以共享公用密钥,该公用密钥可以允许它们再次结合以用于未来信息共享。
设备配对可能是冗长的并且有时需要用户输入关于它们的设备的唯一信息。例如,在他或她的设备(或另一用户的设备)完成对于附近设备的初始搜索之后,用户可能手动输入他或她的设备的信息。虽然设备可以使用NFC协议共享用于配对过程的两个设备之间的信息,但是NFC部件常常相当大并且昂贵。
为了降低或者最小化用户交互并且简化图腾与可穿戴设备之间的配对过程,图腾可以呈现可以被分析并且用于配对的光图案。光图案可以包括用于图腾与可穿戴设备之间的配对的消息。光图案可以由图腾的LED上照亮的光环呈现。消息可以包括发起配对过程的指示。例如,光图案可以编码触发器消息,该触发器消息可使得可穿戴设备搜索附近设备或向附近设备广播其设备信息。作为另一示例,光图案可以编码图腾的设备信息。可以加密设备信息。设备信息可以包括设备标识符(ID)、操作系统信息(例如,操作系统版本)、固件信息、用于配对的通信信道(例如,蓝牙、无线信道)的类型、图腾与可穿戴显示器之间共享的数字密钥等。在某些实施方式中,设备ID可以由制造商、经销商、开发者、或任何适合的实体提供或生成。设备标识符的示例可以包括Android标识符(ID)、iPhone的唯一标识符(UDID)、iPhone的广告标识符(IdentifierForAdvertising)(IFA或IDFA)、cookie ID、登录ID、互联网协议(IP)地址、介质访问控制(MAC)地址、前述中的任一项的散列、前述中的任一项的组合等。在一些情况下,设备标识符可以基于由设备标识符识别的设备的一个或多个硬件和/或软件参数导出。例如,设备标识符可以从设备的IP地址、操作系统版本和位置设置导出。在一些实施例中,设备标识符可以用于识别源或原点或事务、请求、或网络事件。例如,设备标识符可以包括用户标识符、账户标识符等。附加地或者可替代地,设备ID可以与使用设备的实体(例如,用户)相关联。
作为示例,图腾可以包括其周边上的LED的环(例如,周向布置在触摸板周围的12个LED)。当这些12个LED以特定时间顺序、空间顺序、或其组合照亮时,它们可以用于表示某个设备信息。每个LED可以被分配给位,并且在该示例中,LED的环可以表示12位字。LED中的一个或多个可以按顺序显示以示出用于配对的必要信息。例如,LED光可以按顺序照亮以示出图腾的设备标识符(ID)。假定设备ID是2,并且数字2的二进制表示是10,则图腾可以照亮LED 0(在图14B中示出)以表示二进制数2,而其他LED(例如,LED 1-11)不照亮。
在某些实施方式中,一个或多个LED光的颜色也可以表示用于配对的信息。例如,红色可以表示图腾的某个制造商或者模型,而LED光的蓝色可以表示另一制造商或者模型。图腾还可以用LED光示出图腾的制造商和模型的组合。例如,图腾可以通过以蓝色照亮LED1而以粉红色照亮LED 3示出制造商A和模型M。
而且,在每个LED被分配给位的情况下,LED的颜色可以扩大LED可以表示的信息量。例如,不是一个LED被分配给一个位,具有某种颜色的LED可以被分配给一个信息单位。因此,如果LED光可以照亮9种颜色,则LED可以用于基于照亮的颜色示出数字0-9。例如,当LED未照亮时,可穿戴设备可以将其解释为0,而紫色可以表示数字1,绿色可以表示数字2等。作为另一示例,LED也可以表示字母表中的字母(例如,红色是A、白色是B等)。
可穿戴设备可以与显示器和相机(诸如,例如,面向外的成像系统464)相关联。相机可以用于捕获光序列并且然后将其解调以提取用于自动配对的可用信息。例如,由相机捕获的图像可以使用本文所描述的各种计算机视觉算法分析以提取光环的光图案。光图案可以被转译为可以表示图腾的设备信息的数字、字母、词等。可穿戴设备可以然后使用该设备信息以用于与图腾配对。
两个图腾也可以配对。例如,当两个朋友使用他们相应的可穿戴设备玩视频游戏时,它们可能想要配对他们的图腾以共享他们的游戏控制。在该示例中,第一人的可穿戴设备的面向外的成像系统可以获得第二朋友的图腾上的光序列(并且反之亦然)。在第一人的可穿戴设备中可以提取第二朋友的图腾的设备信息并且将该信息传递到第一朋友的图腾以用于配对。在一些实施方式中,图腾还可以具有相机。因此,图腾可以捕获另一图腾的光图案的图像并且实现两个图腾的配对。
作为另一示例,可穿戴设备(或者HMD)可以与两个图腾配对。面向外的成像系统可以获取用于一个图腾的光图案的图像。一旦可穿戴设备从其光环提取一个图腾的设备信息时,则可穿戴设备可以将(可穿戴设备或者另一图腾的)设备信息传递到另一图腾以用于配对。
除了或者替代设备配对,用于通过图腾通信信息的类似技术也可以用于通信其他类型的信息。例如,图腾可以使用由图腾照亮的光图案将用户的简况信息、或图腾的状态通信到可穿戴设备。
有利地,在一些实施例中,图腾的光放置或者运动图案可以用于指示图腾与可穿戴设备之间或者两个图腾之间的无线配对的进程。图20A和20B示出了指示与光环的无线(例如,蓝牙或WiFi)配对过程的示例。这两个图中示出的光图案可以用于示出经由无线通信(例如,其中,图腾或设备将其设备信息无线地广播到其他设备)或者通过参考图14B所描述的光图案的设备配对过程的进程。
图20A示出了可以具有触摸板2022和显示区域2026的图腾2020。图腾2020可以是图腾1200的示例,并且触摸板2022可以是触摸板1260的实施例。显示区域2026可以包括LED的环和漫射由LED发射的光的光导。在一些实施例中,用户可以致动显示区域2026。
显示区域2026可以显示光环2024。光环的一部分可以具有深蓝色。如在过程2012中所示,图腾可以顺时针播放深蓝色部分的旋转动画。一旦图腾被配对,则图腾可以以脉冲动画呈现深蓝色光环。参考图20B描述了动画的示例。图腾可以通过显示图案2062开始旋转动画。当无线配对在进行中时,如由箭头1、2和3示出的,图腾可以顺序地呈现图案2064、2066和2068。如果配对仍然在进行中,则图腾可以在图案2068之后再次播放图案2062。如果配对已经成功完成,则图腾可以呈现可以向用户提供视觉指示的图案2070。
虽然这些示例参考配对图腾描述,但是类似技术也可以用于将其他用户输入设备466或设备与显示器或照亮部件配对。例如,技术可以用于将以下中的两个或两个以上配对:智能手表、智能电话、可穿戴设备、图腾、平板电脑、计算机、电视、相机、外围设备、电器、或具有图像识别和处理能力的其他设备。作为智能电话与图腾之间的配对的示例,智能电话可以使用其相机捕获和分析图腾上的照亮图案。作为另一示例,可穿戴设备可以与智能手表配对,其中,可穿戴设备可以捕获和分析由智能手表显示的图案(例如,在智能手表的显示屏上)。本文所描述的技术还可以用于各种类型的无线配对,诸如蓝牙配对、WiFi配对(例如,Wi-Fi DirectTM)、或其他类型的无线配对。作为蓝牙配对的示例,当图腾处于可发现模式时,图腾可以显示指示其处于可发现模式的光图案。当可穿戴设备也处于可发现模式时,可穿戴设备可以捕获该光图案并完成配对。当光图案编码触发消息时,可穿戴设备可以在检测光图案时自动进入可发现模式。作为无线配对的示例,图腾可以照亮指示可以对图腾进行连接的光图案。可穿戴设备可以根据光图案的检测接收连接到图腾的邀请。除了无线配对的这些示例之外,配对技术也可以用于除无线配对之外的配对的类型。例如,技术也可以用于经由以太网连接在家的用户输入设备组中间共享文件。
设备与光环配对的示例过程
图20C示出了设备与光环配对的示例过程2080。配对可以在可穿戴设备与另一设备(例如,图腾、智能电话、电视、智能手表等)之间。可以通过具有HMD和面向外的成像系统464的可穿戴设备执行示例过程2080。过程2080可以用于辅助将图腾与其他设备、HMD等配对。
在框2082处,可穿戴设备可以接收来自图腾的请求以建立配对。例如,图腾可以向附近设备广播信号以用于建立通信。可穿戴设备可以接收广播信号并且识别已经通信该信号的图腾。作为另一示例,请求可以是编码在图腾的光图案中的触发器消息。
在框2084处,可穿戴设备可以接收由图腾呈现的光环的图像。可以通过面向外的成像系统464捕获图像。如参考图20A和20B所描述的,图腾可以使用光环来通信经由光环的光放置或者运动图案建立配对所需要的设备信息。例如,光环可以将设备信息编码为二进制形式。
在框2086处,可穿戴设备可以分析光环的图像以提取设备信息。例如,可穿戴设备可以使用对象识别器708n以识别捕获的图像中的光环。在光环以二进制形式编码设备信息的情况下,可穿戴设备可以将二进制表示转换回到设备信息的十进制表示或字母表示。
在框2088处,基于提取的设备信息,可穿戴设备可以将图腾与可穿戴设备配对。例如,可穿戴设备可以将图腾的设备ID添加到可穿戴设备可以共享其信息的设备的白名单。
可选地在框2089处,可穿戴设备可以从图腾接收示出配对成功的指示。指示可以是电磁信号。附加地或者可替代地,图腾可以显示具有某个放置或者运动的光环,以指示配对完成。例如,图腾可以显示圆形蓝色光环的脉冲动画。面向外的成像系统464可以捕获图像中的该光环。一旦可穿戴设备识别光环的光放置或者运动图案,则可穿戴设备可以确定配对已经完成。
在一些实施例中,图腾还提供了配对在进行中的视觉指示。例如,图腾可以在配对期间呈现具有旋转弧的光环。旋转弧可以在图腾已经向可穿戴设备提供设备信息之后呈现。
虽然在本文中参考可穿戴设备描述示例,但是在一些实施例中,类似技术也可以适于另一计算设备。例如,示例过程2080可以用于将被配置为提供AR/VR/MR特征的移动电话与图腾配对。
图20D示出了设备与光环配对的另一示例过程2090。配对可以在图腾与计算设备之间。计算设备可以是具有可穿戴显示器和面向外的成像系统464的可穿戴设备、或其他计算设备(例如,电视、智能手表、智能电话、平板电脑、另一图腾等)。可以通过图腾1200执行示例过程2090。
在框2092处,图腾可以发起与计算设备的配对过程。例如,图腾可以搜索可以与图腾配对的附近设备。图腾还可以广播信号并且基于从其他设备接收到的信号的响应来识别用于配对的可用设备。用户可以致动图腾或者计算设备以使得图腾发起配对过程。例如,用户可以按压主页按钮1256延长的时间段以使得图腾进入配对过程。在某些实施方式中,图腾可以呈现指示图腾现在处于配对模式的光图案。光图案可以由计算设备捕获并且可以使得计算设备进入与图腾的配对过程。
在框2094处,图腾可以照亮编码用于配对过程2094的信息的第一光图案。编码信息可以包括图腾的设备信息。编码信息还可以包括用于计算设备与图腾连接的密钥。例如,计算设备可以基于从图像提取的光图案提取密钥并且经由无线信道将密钥通信回到图腾以实现配对。在一些实施例中,框2092可以是可选的。在框2094中,计算设备可以在检测第一光图案时自动发起配对过程。
在框2096处,图腾可以接收来自计算设备的响应。响应可以是计算设备的设备信息。在一些情况下,响应可以包括用于来自图腾的更多信息的请求。计算设备还可以提供响应中的其他信息,诸如,图腾可以用于与计算设备通信的网络通信信息(例如,网络端口、加密标准、或通信协议)。在一些情况下,响应还可以包括计算设备已经将图腾添加到接受设备的列表的指示。
可选地在框2098处,一旦配对过程完成,则图腾可以照亮指示配对成功的第二光图案。第二光图案可以是图20B中示出的图案2070。在一些实施例中,图腾可以停止照亮以指示配对已经完成。虽然示例过程2090已经在上文被描述为由图腾执行,但是将理解到,示例过程2090可以由另一设备(例如,智能电话、智能手表、计算机等)执行。
使用光环的光图案提供对象的状态的线索的示例
光环的光图案的放置和运动可以用作用于指示对象的状态的线索。例如,某些光放置或者运动图案可以用于指示用户是否已经将图腾开启或关闭、图腾是否处于睡眠模式、或是否是图腾的电池充电状态。下面描述了非限制性说明性示例。
图21A示出了指示图腾的状态的示例。如在过程2110)中示出,当电源按钮从关闭到开启时,图腾可以呈现光环的一部分并且逐渐填充剩余部分直到图腾完全开启。图腾也可以在通电过程期间顺时针旋转光环一个循环。
当电源按钮从打开到关闭时,图腾可以呈现(如在过程2120中示出)全光环并且逆时针旋转光环一个循环。图腾还可以逐渐隐藏光环的更多部分直到图腾完全断电(当图腾将不再呈现光环时)。
光环调色板可以选择为视觉上愉悦用户。不同调色板可以用于不同系统功能,例如,当系统通电时的启动调色板(参见,例如,图21A中的过程2110)和当系统断电时的关闭调色板(例如,图21A中的过程2120)。例如,启动调色板可以表示通常在日出期间看到的颜色,并且关闭调色板可以表示通常在日落期间看到的颜色。其他调色板可以用于其他系统功能(例如,图21C、21D中示出的充电或电池状态或睡眠-空闲模式)。调色板可以包括颜色、灰度级、照亮水平等。照亮图案可以包括通信给用于控制图腾光源(例如,LED 1383a、1394a)的亮度的光源控制器(其可能是设置在触摸板1394c上的控制器)的照亮信息。照亮信息可以包括调色板、何时照亮LED中的每一个(包括可由LED产生的单独颜色)、照亮LED中的每一个(包括可由LED产生的单独颜色)多久以及以什么亮度水平照亮LED中的每一个(包括可由LED产生的单独颜色)的时序(或变化率)等。一些LED可以包括附加或不同的控制功能,例如,RGBA,该RGBA包括RGB加上指示每个像素多么不透明并且允许图腾执行阿尔发复合(允许部分或完全透明的外观)的Alpha通道。取决于图腾中使用的光源的选择,照亮信息可以包括这样的附加或者不同的控制功能。
可以存在可以由RGB LED显示的许多种类的调色板(例如,其中,通常,每种颜色可以被设定为从0到255的256个值)。可以根据各种不同因素(例如,用户特征、上下文信息、设备利用或状态、系统功能等)中的任一个为本文所描述的光环中的一个或多个来选择调色板。
光环照亮图案可以包括颜色、阴影、色调等的梯度。例如,由于图腾中的有限数目的光源(例如,12个RGB LED),改变彩色光源的亮度可以用于提供期望的梯度(在颜色或强度方面)。梯度可以提供照亮图案的中间结束或淡出的视错觉。可以通过动态调节光源的亮度提供梯度(对于时变照亮图案)。作为示例,对于具有定位在时钟的各小时处的12个LED的图腾,在4点钟处开始朝向6点钟延伸的照亮图案()其具有弧的6点钟端部处的梯度)可以使LED亮度值设定为:LED 1-3、亮度0.0、LED 4、亮度1.0、LED 5亮度1.0、LED 6亮度0.5、LED7-12、亮度0.0。
其他关闭过程可以涉及与图腾的用户交互,以确认用户想要执行关闭操作(例如,以关闭、暂停、或重新启动可穿戴设备200)。例如,当由用户选择关闭时,可穿戴系统200的显示器220可以向用户显示关闭用户接口。在一个示例中,关闭用户接口显示圆环(暗示图腾1200上的圆形光导1264)和用户将在图腾的触摸板1260上移动他或她的拇指以确认关闭操作的文本指示。例如,用户接口可以显示“完成圆形以断电(Complete Circle to PowerOff)”并且圆环可以包括指示用户将围绕触摸板1260顺时针移动他们的拇指(比如说)的动画。如果用户按压主页按钮1256,则关闭操作可以停止并且关闭用户接口可以淡出。
如果用户想要完成关闭操作,则用户可以跟随所显示的引导并且以围绕触摸板1260的圆形顺时针路径移动他或她的拇指。当用户这样做时,光导1264可以照亮以产生跟随拇指的运动的弧(并且可选地,显示器220可以显示示出围绕圆环的进展的动画图形)。如果用户的手指完成全圆(确认关闭操作),则触觉“碰撞”可以由图腾1200执行以向用户提供关闭操作已经开始的触觉反馈(可选地,系统200可以输出音频声音)。可穿戴系统220的显示器220可以向用户显示关闭屏幕并且开始关闭操作。图腾1200的光导1264可以显示关闭照亮图案(例如,如在图21B中示出)。
图21B示出了通电和断电过程期间的光环的光放置或者运动图案的示例。在通电过程期间,如由箭头1和2所示,光环图案可以从图案2122移动到图案2124并且然后到图案2126。在该过程期间,光环的弧(其可以以颜色(例如,黄色)照亮)可以在长度上逐渐变得更长并且在颜色上更亮。
另一方面,在断电过程期间,如由箭头3和4所示,光环图案可以从图案2126移动到2124然后到2122。在该过程中,光环的形状可以从全环逐渐减小到小弧。
附加地或者可替代地,光环可以被配置为显示图腾的电池1720的充电状态,其中,电池量可以对应于正被显示的光环的部分的尺寸。图21C示出了显示电池充电状态的光图案的放置和运动的示例。过程2132示出了当电池1720充电时光环的动画序列。例如,光环可以被分成四个象限。每个象限可以与一个或多个LED光相关联。图腾可以通过照亮每个象限中的LED逐渐填充所有四个象限。在某些实施方式中,不是一次填充1个象限,图腾可以逐渐照亮LED以跟踪剩余电池的百分比。例如,当存在30%的电池剩余时,图腾可以点亮LED的30%。
如果当充电开始时电池低于15%(例如),图腾可以在四个象限中的一个中呈现具有第一颜色(例如,橙色)的光环。一旦电池已经到达25%(例如),则图腾可以将光环的颜色从第一颜色改变为第二颜色(例如,从橙色改变为绿色)。当电池已经到达50%时(例如),则图腾可以照亮与在顺时针方向上的下一象限相关联的光环(例如,以第二颜色)的部分。随着图腾被充电,图腾可以继续淡入其他象限中。当电池完全充电时,图腾可以利用照亮的所有四个象限以第二颜色呈现光环(如在过程2134中示出)。
当电池正被消耗时,光环的形状可以初始是全圆。随着电量减小,如在过程2136中示出的,图腾可以在逆时针方向上使光环逐渐淡出。在一些实施例中,当仅存在15%(例如)的电池剩余时,图腾可以将光环的剩余部分转到第三颜色(例如,红色)并且播放脉冲动画直到无电力剩余(其中,图腾可以播放光环的淡出动画)。
光环也可以用于示出图腾是否已经进入睡眠模式。图21D示出了当图腾已经进入睡眠模式时的示例光环模式。如在过程2142中指示的,当图腾已经变得空闲时,因为其在阈值时间段内尚未检测到用户交互,图腾可以以轨迹(例如,白色轨迹)的形式呈现光环。图腾也可以以顺时针循环重复轨迹。
用光环指示图腾的状态的示例过程
图21E示出了指示基于光放置或者运动图案的图腾的状态的示例过程。可以通过本文所描述的可穿戴系统的一个或多个部件执行图21E中的过程2150。例如,可以通过图腾或可穿戴设备执行过程2150。
在框2152处,可穿戴系统可以确定图腾的状态。图腾可以包括光源(例如,LED)组,其被配置为显示光环。图腾可以用于指示图腾的状态。状态可以包括图腾的电池状态,诸如,例如,图腾是否通电/断电、图腾是否处于睡眠模式、或电池充电或消耗的进展。
在框2154处,可穿戴系统可以访问光环的第一光图案。第一光图案可以指定用于光环的放置或者运动图案。第一光图案可以与图腾的当前状态相关联。例如,当电池当前低时,光环的光放置或者运动图案可以是6点钟位置周围的红色弧。
在框2156处,可穿戴系统可以指令LED组根据第一光图案显示光环。继续先前示例,可穿戴系统可以照亮红光的指令并向位于6点钟位置附近的LED(诸如,例如,图14B中示出的MUX 3中的LED 9、LED 10和LED 11)发送该指令。
可穿戴系统可以连续地监测图腾的状态。可选地在框2158处,可穿戴系统可以确定是否存在状态的更新。例如,当图腾的电池先前可能小于15%时,用户可能已经将图腾插入到电源中以用于充电。因此,电池量可以逐渐增加。
在可选框2160处,响应于更新,可穿戴系统可以指令LED组根据光图案显示光环。第二光图案与更新相关联。例如,一旦图腾已经进入充电模式,则光环的颜色可以从红色改变为绿色。
虽然本文中的示例参考指示图腾的状态描述,但是类似技术也可以用于指示图腾的其他部件(诸如可穿戴显示器或电池组)的状态。
使用光图案作为用于用户交互的线索的示例
除了或者替代提供关于设备状态的信息,光环也可以用作指示当前用户交互或导引用户交互的线索。图22A和22B示出了用作用于用户交互的线索的示例光放置或者运动图案。图22A显示光环图案2210和2220。光环图案可以通过图腾的触摸表面周围的光导显示。用户可以致动触摸表面,例如,使用他或她的拇指2230。光环图案2210可以包光导的左边的弧2222(其可以以紫粉色照亮)。弧2222的长度和亮度可以反映用户的手指与显示弧2222的光导的部分之间的距离。
作为指示与图腾的当前用户交互的示例,当用户的拇指处于位置2212时,可以示出光环图案2210。最接近于拇指2230的弧2222的部分可以最亮。弧的其他部分的亮度可以随着它们更远离拇指2230逐渐减小并且最终转变为黑色(例如,其中,对应的LED关闭)。在该示例中,用户可以利用滑动手势致动触摸表面。例如,用户可以向左滑动他或她的拇指。当用户朝向弧2222向左移动他或她的拇指2230时(由箭头2214示出),弧222的长度可以从小于圆的一半增加到大于圆的一半。弧2222的亮度还可以由于拇指2230与弧2222之间的减小的距离而增加。
作为另一示例,在图22B中,与图案2250相关联的光环可以包括三个弧2252、2254、2256。弧2252以对应于第一颜色(其例如可以是红色)的第一图案示出,弧2254以对应于第二颜色(其例如可以是蓝色)的第二图案示出,并且弧2256以对应于第三颜色(其例如可以是黄色)的第三图案示出。参考图14B,弧2252可以由LED 1、LED 2和LED 3照亮;弧2254可以由LED 5、LED 6和LED 7照亮;并且弧2256可以由LED 9、LED 10和LED 11照亮。
图案2250可以与3路d-板相关联,其中,每个弧与用户接口操作相关联。例如,用户可以轻叩弧2252附近的区域以向左移动虚拟对象并且轻叩弧2254附近的区域以向右移动虚拟对象。用户还可以轻叩弧2256附近的区域以选择或释放虚拟对象。当用户的拇指2230接近弧时,弧的长度可以减小,而弧的亮度可以增加。例如,当用户的拇指2230接近弧2254时,图腾可以关闭LED 5和LED 7(在图14B中示出)以减小弧2254的尺寸。光环的光放置或者运动图案的该改变可以提供用户已经发起(或将发起)虚拟对象的向左运动的指示。当用户的拇指移动远离弧2254时,图腾可以重新照亮LED 5和LED 7以增加弧2254的尺寸。
图腾可以模拟各种用户输入设备(诸如,例如d-板、触摸设备、6DOF控制器等)的功能。光环的光放置或者运动图案可以用于指示图腾当前正用作的用户输入设备的类型或指示可用的用户接口交互。例如,当用户使用3D显示器浏览网页时,图腾可以用作支持左滑/右滑手势的触摸设备。为了向用户提供滑动手势可用的指示,图腾可以显示图22A中示出的图案。
在某些实施方式中,可穿戴系统可以基于上下文信息自动选择适合的用户输入设备配置。例如,用户可能想要使用3路d-板将虚拟对象移进和移出FOV并且选择虚拟对象。因此,当可穿戴设备检测到用户正与他或她的环境中的虚拟对象交互时,可穿戴设备可以指令图腾启用3路d-板并且呈现光环图案2250以通知用户3路d-板可用。
图22C示出了使用与光环相关联的光图案来提供可用用户交互操作的指示的另一示例。图22C中的图腾可以被配置为用作星形d-板。为了通知用户图腾当前正用作星形d-板,图腾可以点亮图14B中的LED 2、LED 4、LED 6、LED 8、LED 10、和LED 0。作为示例,当用户选择网页上的文本框时,图腾可以呈现图案2260以示出用户可以使用星形d-板以用于文本输入。当用户致动LED附近的区域时,LED可以显示更亮的颜色以指示用户正致动该区域。例如,当用户致动LED 0附近的区域时(如在图案2270中示出),图腾可以指令LED 0发射更亮的光。
在一些实施例中,图腾可以使用图腾通知用户用户正执行错误用户交互或者提供正确/推荐的用户交互的指示。图23示出了使用光图案作为指示不正确或不恰当的用户操作的警报的示例。用户的拇指2230可以初始处于触摸表面上的位置2312。触摸表面可以由可以显示光环2222的光导围绕。当用户的拇指处于位置2312时,光导可以显示光环图案2310。用户可能需要通过向左滑动(例如,通过将他或她的拇指2230移动更接近于光环2222)来向左移动对象。然而,用户实际上向右滑动(如由箭头2232指示),其是执行向左移动对象的期望操作的不正确的方向。因此,用户的拇指现在在位置2314处。为了提醒用户他或她需要向左滑动以恰当地移动对象,光导可以示出光环图案2320,其中,光环2222看起来长度更长并且颜色更亮。这可以引起用户的注意力以确保他或她在正确的方向上移动他或她的拇指2230。
光环的图案可以取决于用户交互的类型而变化。图24A和24B分别示出了用于滑动手势和触摸手势的示例图案。图24A和24B中的触摸板可以包括显示光环的光导。触摸板还可以包括由光导围绕的触摸表面。触摸表面可以接收用户输入,诸如滑动手势或触摸手势。
图24A和24B中示出的光环可以具有3个弧2422(以第一颜色(例如,红色)照亮)、2424(以第二颜色(例如,蓝色)照亮)、和2426(以第三颜色(例如,黄色)照亮)。参考图14B,弧2422可以对应于LED 1、LED 2、和LED3;弧2424可以对应于LED 5、LED 6、和LED 7;并且弧2426可以对应于LED 9、LED 10、和LED 11。
用户的拇指2230可以初始处于触摸表面的位置2412。因此,光导可以显示用于光环的图案2402。如由向下箭头2450所指示的,用户可以朝向弧2426向下滑动。例如,用户可以将他或她的拇指2230从位置2412移动到位置2414(如由箭头1示出)。当检测到用户的运动时,如图案2404中示出的,图腾可以使弧2422和2424的显示变暗。如由箭头2所指示的,用户可以进一步向下移动他或她的拇指。在图案2406中,当用户的拇指到达位置2416时,图腾可以增加弧2426的亮度和长度。例如,LED 9、LED10和LED 11的亮度可以增加。图腾还可以照亮LED 0和LED 8(以第三颜色)以增加弧2426的长度。图腾还可以以第三颜色(而不是如弧2424中示出的第二颜色)照亮LED 7并且以第三颜色(而不是如弧2422中示出的第一颜色)照亮LED 1。如由箭头3所示,当用户更进一步向下移动他或她的拇指2230时,所有LED(除LED 10的相对侧的LED 4之外)可以以第三颜色照亮光以以第三颜色示出弧2426的扩展。另一方面,当用户的拇指2230远离弧2426移动时,图腾可以根据箭头4、5和6显示图案。在该顺序下,弧2426的尺寸可以逐渐缩小,并且其他弧2422和2424可以逐渐淡入。
用户还可以利用触摸手势致动图24A中的触摸板。图24B示出了当用户利用触摸手势致动触摸板时的光环图案。图腾可以初始显示如图案2462中示出的3个弧2422、2424、和2426。当用户触摸接近黄色弧2426的区域时,弧2426的长度可以增加。如在图案2464中示出的,当用户利用位置2418处的触摸手势致动图腾时,LED 0和8可以照亮(以第三颜色)以示出增加的长度。然而,与图案2408(其可以对应于滑动手势)相比较,弧2426将不扩展以覆盖其他弧(例如,弧2422和2424),即使用户的手指处于相同位置2418。
为图腾上的用户交互提供线索的示例过程
图24C示出了为图腾上的用户交互提供线索的示例过程。可以通过可穿戴系统的部件(诸如,例如,图腾或可穿戴设备)执行示例过程2480。
在框2482处,可穿戴系统可以基于上下文信息来识别可用用户接口操作。例如,可穿戴系统可以确定什么类型的用户交互可用并且将这些类型的用户交互映射到图腾的可交互区域。作为示例,浏览器可以允许用户向上/向下滚动、扩大/缩小网页的尺寸、选择浏览器上的条目、并且在浏览器内将光标四处移动。可穿戴系统可以将光标运动和条目选择映射到图腾的第一可交互区域,其中,用户可以滑动触摸表面以移动光标并且点击触摸表面以选择条目。可穿戴系统还可以将滚动和重定尺寸操作映射到第二可交互区域。第二可交互区域可以围绕第一可交互区域。第二可交互区域可以模拟d-板的功能,其中,用户可以轻叩上/下键以滚动网页并且轻叩左/右键以将网页重定尺寸。
在框2484处,可穿戴系统可以确定与可用接口操作相关联的光环的放置或者运动图案。继续以上示例,可穿戴系统可以显示具有4个弧(如在图25B中示出)的光环以指示图腾具有用户可以用作d-板的第二可交互区域。
在框2486处,可穿戴系统可以生成并向图腾的LED(在图14B中示出)传送指令以根据光图案显示光环。例如,在光环具有4个弧的情况下,可穿戴系统可以指令LED 1照亮蓝色、LED 4照亮黄色、LED 7照亮红色、并且LED 10照射亮色。
在框2488处,可穿戴系统可以接收图腾上的用户输入。例如,图腾可以检测第一可交互区域中的滑动手势或触摸手势或检测第二可交互区域中的轻叩手势。在一些实施例中,用户输入还可以包括单独或与用户的姿势(例如,头部姿势或其他身体姿势)组合来致动图腾的其他部件,诸如触发器1212或主页按钮1256(在图12中示出)。
可选地在框2492处,可穿戴系统可以确定用户输入是否是正确输入。可穿戴系统可以基于用户正交互的对象的上下文信息来做出确定。可穿戴系统可以确定用户输入是否属于由对象支持的用户输入的类型。例如,视频记录应用可以允许经由姿势的用户输入,而网络浏览器可以支持滑动和触摸手势的组合。因此,当用户正在浏览网页时,可穿戴系统可以不基于用户的脚姿势的改变来执行用户接口操作。作为另一示例,一个网页可能允许用户观看网络内容,但是可能不允许用户输入他或她的评论。因此,如果用户试图键入短语,则可穿戴系统可以确定用户的输入不是正确输入,因为其不由网页支持。
如果用户输入不是正确输入,可选地在框2494处,可穿戴系统可以提供用户的输入不正确的指示。可以以视觉、听觉、触觉、或其他反馈的形式提供指示。例如,图腾可以通过在与正确输入相关联的可交互区域附近提供更亮的颜色强调正确输入。作为另一示例,图腾可以经由图腾的本体中的触觉致动器提供振动。作为又一示例,可穿戴系统可以经由HMD或者经由扬声器提供警报消息。
如果用户输入是正确输入,在框2496处,可穿戴系统可以更新光图案的放置和运动以反映用户输入。例如,如果用户轻叩图腾的触摸表面的左侧,则图腾可以照亮用户的轻叩附近的LED。在一些实施例中,除了或者替代框2492和2494,一旦图腾接收到用户的输入,则图腾可以更新与光环相关联的光图案的替换和运动以反映用户输入。
使用图腾与虚拟对象的示例交互
图腾可以包括多个可交互区域,其中,每个可交互区域可以映射到一种或多种类型的用户交互或一种类型的用户输入设备。如参考图12A和13A所描述的,在一些实施例中,图腾具有:第一可交互区域,其包括可以支持触摸事件和手势(诸如例如,滑动手势)的触摸表面;和第二可交互区域,其包括光导。光导可以照亮触摸板周围的4个点处或具有各自具有不同颜色的4个弧的光环。该照亮图案可以示出光导被用作d-板。例如,可以轻叩或按压照亮点以移动虚拟对象。取决于手势是施加于光导还是触摸表面(例如,在触摸板的主中心区域中),相同用户手势可以引起正被执行的不同用户接口操作。例如,当用户轻叩光导时用户可以移动虚拟对象,但是当用户轻叩触摸表面时,用户可以选择虚拟对象。
图25A示出了光导的示例交互式使用。图25A中的图腾2502可以是本文所描述的图腾1200的示例。图腾2502可以包括触摸板2506,该触摸板2506可以包括触摸表面和光导,该光导可以基本上围绕触摸表面。光导可以漫射光(例如,由在光导下面的LED发射的)以显示光环,该光环可以包括光环的一个或多个弧。在图25A中的示例中,光环可以包括在围绕触摸表面的4个区域处照亮的4个弧2504a、2504b、2504c、和2504d。光导可以交互以便接收用户输入(例如,用户可能按下光导的一部分)。例如,光导可以模拟d-板的功能。光导可以包括向上键2508a、向右键2508c、向下键2508d、和向左键2508b。图腾可以提供这些键的位置的视觉指示。例如,弧2504a可以对应于向上键2508a;弧2504b可以对应于向左键2508b;弧2504c可以对应于向右键2508c,并且弧2504d可以对应于向下键2508d。
用户可以致动相应键附近的区域以执行与这些键有关的用户接口功能。例如,用户可以致动区域2518a以致动向上键2508a;致动区域2518b以致动向左键2508b;致动区域2518c以致动向右键2508c;以及致动区域2518d以致动向下键2508d。
作为致动光导的示例,用户可以通过致动光导将虚拟对象移进和移出他或她的FOV。图25A中的场景2500示意性地示出了与FOV 2550和FOR 2502中的虚拟对象交互的示例。如参考图4所描述的,FOR可以包括能够由用户经由可穿戴系统感知的用户周围的环境的一部分。FOR 2502可以包括可以由用户经由显示器220感知的虚拟对象组(例如2510、2520、2530、2542、和2544)。在FOR 2502内,用户在给定时间处感知的世界的部分可以被称为FOV 2550(例如,FOV 2550可以涵盖用户当前看向的FOR的部分)。在场景2500中,通过虚线2552示意性地示出了FOV 2550。显示器的用户可以感知FOV 2550中的多个对象,诸如对象2542、对象2544、和对象2530的一部分。FOV 2550可以对应于当浏览显示器(诸如,例如,堆叠波导组件480(图4)或平面波导600(图6))时可由用户感知的立体角。随着用户的姿势改变(例如,头部姿势或眼睛姿势),FOV 2550将相应地改变,并且FOV 2550内的对象也可能改变。例如,虚拟对象2510初始在用户的FOV 2550外部。如果用户看向虚拟对象2510,则虚拟对象2510可以移动到用户的FOV 2550中,并且虚拟对象2530可以移动到用户的FOV 2550外部。
用户可以致动光导以将虚拟对象移进和移出FOV 2550,而不改变他或她的身体姿势。例如,用户可以致动键2508b以向左将虚拟对象移动到FOV 2550中。因此,虚拟对象2530可以完全移动到FOV 2550中。作为另一示例,用户可以致动键2508c以向右移动虚拟对象,并且因此,虚拟对象2510可以移动到FOV 2550中并且虚拟对象2530可以移动到FOV外部。
附加地或者可替代地,可穿戴系统可以基于用户的注视方向或者虚拟对象的位置将聚焦指示器分配给FOV 2550中的虚拟对象。例如,可穿戴系统可以将聚焦指示器分配给与用户的注视方向相交的虚拟对象或最接近于FOV的中心的虚拟对象。聚焦指示器可以包括辉光(aura)(例如,在虚拟对象周围)、颜色、感知尺寸或深度改变(例如,当选择时使得虚拟对象显得更近和/或更大)、或吸引用户的注意力的其他视觉效果。聚焦指示器还可以包括听觉或触觉效果,诸如振动、铃声、蜂鸣等。例如,可穿戴系统初始将聚焦指示器分配给虚拟对象2544。当用户在区域2518c处轻叩时,用户可以致动键2508c。因此,可穿戴系统可以将虚拟对象向右移动以将聚焦指示器从对象2544转换到对象2542,并且可穿戴系统可以将对象2510移动到用户的FOV 2550中,同时将对象2530移动到用户的FOV外部。
图25B示出了具有两个可交互区域的图腾的示例交互式使用。如参考图25A所描述的,图腾2502可以包括触摸表面2506和光导。光导可以模拟如参考图25A所描述的d-板的功能并且可以显示具有4个弧2514a、2514b、2514c和2514d的光环,其中,每个弧具有不同颜色。
用户可以致动光导或者触摸表面2506以致动图腾。例如,在浏览器窗口中,用户可以致动触摸表面2506以移动光标。触摸表面2506上的向左滑动可以被映射到向后功能,而触摸表面2506上的向前滑动可以被映射到用于浏览器页面的向前功能。在6点钟位置(利用弧2514d照亮)处的轻叩(通过位置2518示出)可以使得浏览器向下滚动,在12点钟位置(利用弧2514a照亮)处的轻叩可以使得浏览器向上滚动。保持在6点钟位置或者12点钟位置处可以迅速滚动页面。
当用户致动图腾时图腾可以提供视觉反馈。例如,当用户在弧2514d附近的6点钟位置处轻叩时,图腾可以增加弧2514d的亮度。触觉反馈可以用于区分用户是否已经致动触摸表面2506或光导。例如,当用户在光导上轻叩时,在触摸板下面的致动器可以激活并且提供振动。
图25C示出了用于与图腾交互的示例过程。可以通过本文所描述的可穿戴系统(诸如图腾或者可穿戴设备)执行过程2570。
在框2572处,可穿戴系统可以接收图腾上的用户输入。用户输入可以包括手势,诸如滑动、轻叩、触摸、按压等。图腾可以包括多个可交互区域。例如,图腾可以包括触摸板,该触摸板可以包括触摸表面和光导,这两者都是可交互的。
在框2574处,可穿戴系统可以确定与来自多个可交互区域的用户输入相关联的可交互区域。例如,图腾的触摸传感器1350可以确定用户是否已经致动光导或触摸表面。触摸传感器1350还可以检测用于致动图腾的用户的手势。例如,触摸传感器可以检测用户是否使用滑动手势或轻叩手势致动图腾。
在框2576处,可穿戴系统可以访问与可交互区域中检测的用户输入相关联的光图案。如参考图24A和24B所描述的,光图案可以基于用户输入的类型(例如,触摸手势与轻叩手势)而不同。取决于哪个可交互区域致动,光图案也可以不同。例如,如果用户致动触摸表面,则光图案可以是图24A中示出的光图案,但是如果用户致动光导,则光图案可以包括图24B中示出的那些光图案。
在框2578处,可穿戴系统可以指令图腾的光源(例如,LED)呈现包括光图案的光环。例如,可穿戴系统可以提供关于哪些LED应当点亮、LED的亮度、LED的颜色、与由LED发射的光相关联的运动图案等的指令。
使用图腾与物理对象的示例交互
图26A和26B示出了使用图腾与物理对象交互的示例。图26A示出了可以是用户的家庭的起居室的物理环境2600的示例。环境2600具有物理对象,诸如,例如,电视(TV)5110、物理远程控制5120(有时简单称为遥控器)、电视柜5130、和窗户5140。用户可以感知物理对象并与物理对象交互。例如,用户可以观看TV 5100并且使用遥控器5120控制TV。用户可以控制遥控器5120以将TV 5110打开/关闭或者改变TV 5110的频道或音量。
用户还可以使用图腾2602与TV 5110交互。图腾2602可以是图腾1200的实施例,该图腾2602可以包括多个可交互区域。图腾2602可以与TV 5110或遥控器5120配对以模拟遥控器5120的功能。遥控器5120的功能可以被映射到与图腾的触摸板、触发器、或主页按钮相关联的一个或多个可交互区域。触摸板可以包括触摸表面2634和光导2630,其中,触摸表面2634和光导2630可以被映射到不同类型的用户交互。例如,触摸表面2634可以用于经由滑动手势切换频道。光导2630可以用作用于经由轻叩手势调节音量或快进/后退的d-板。
在图26B中,光导可以显示用于具有四个弧的光环的光图案2622:弧2632a(其可以处于第一颜色(例如,蓝色))、弧2632b(其可以处于第二颜色(例如,黄色))、弧2632c(其可以处于第三颜色(例如,红色))、和弧2632d(其可以处于第四颜色(例如,绿色))。弧被定位以形成X形状。如由箭头1示出的,当用户2602触摸光导上的弧2632c附近的区域时,用户可以快进正在TV 5110上播放的节目。图腾可以显示图案2624以指示用户已经在弧2632c附近轻叩。弧2632c看起来更亮并且更长,而其他弧2632a、2632b、和2632d隐藏在图案2624中。
用户还可以通过向右滑动(如由箭头2示出)改变到下一频道。图腾可以照亮光图案2626以显示用户已经通过滑动手势而不是轻叩手势致动图腾。即使用户2602手指在图案2626和2624中粗略地处于相同位置,但是这两种情况中照亮的光图案不同,因为用于致动图腾的手势不同。例如,虽然弧2632c的亮度和长度已经增加,但是其他弧2632a、2632b、和2632d未隐藏在图案2626中。相反,图腾仅降低其他弧的亮度。
虽然在没有可穿戴设备的情况下描述了参考图26A和26B描述的示例,但是在一些实施例中,用户可以在穿戴可穿戴设备的同时使用图腾控制物理对象。例如,用户可以通过可穿戴设备感知物理对象并且感知由可穿戴设备投射的虚拟对象。用户可以使用图腾与物理对象以及虚拟对象交互。
利用图腾的示例6DOF用户体验
图27示出了利用多DOF(例如,3DOF或6DOF)图腾移动虚拟对象示例。用户可以通过向前/向后(涌动)、向上/向下(摇动)、或向左/向右(起伏)移动来改变图腾的位置。用户还可以通过从一侧到另一侧倾斜(滚动)、向前和向后倾斜(俯仰)、向左和向右转动(偏转)来改变图腾的取向。通过改变图腾的位置和取向,用户可以在虚拟对象上执行各种接口操作(诸如,例如,通过旋转移动)。
用户可以通过使用图腾2602选择虚拟对象来保持和移动虚拟对象和通过物理地移动图腾2602移动虚拟对象。例如,图腾2602可以初始处于第一位置5100a。用户5300可以通过致动图腾504(例如,通过致动图腾上的触敏板)选择位于第一位置5100b处的目标虚拟对象5400。目标虚拟对象5400可以是可以由可穿戴系统显示和移动的任何类型的虚拟对象。例如,虚拟对象可以是化身、用户接口元素(例如,虚拟显示器)、由可穿戴系统显示的任何类型的图形元素。用户5300可以通过沿着轨迹5500a移动图腾2602将目标虚拟对象沿着轨迹5500b从第一位置5100b移动到第二位置5200b。
作为另一示例,取代将虚拟对象5400从5100b移动到5200b,用户5300可能想要将虚拟对象5400拉动到更接近于他自己。因此,用户可以移动图腾更接近于他自己来使虚拟对象5400更接近。
作为又一示例,图腾2602可以处于位置5200a。用户可以顺时针旋转图腾180度,并且因此虚拟对象5400可以在位置5200b处旋转180度。
图腾可以发射指示用户交互的类型的某些光图案。例如,当用户正在移动图腾时LED的环可以照亮蓝色,而当用户正在旋转图腾时照亮绿色。作为另一示例,图腾光运动图案可以对应于图腾的旋转。例如,光图案可以包括弧。当用户旋转图腾时,弧也可以在用户的旋转的方向上旋转。
图腾上的装饰和信息视觉反馈的示例
一些可穿戴设备可以具有有限的FOV。有利地,在一些实施例中,图腾可以使用由图腾照亮的光图案提供与FOV外部的对象相关联的信息。
图28A和28B示出了经由光图案的放置和运动提供对象的信息的示例。图28A示出了人的FOV 2820和FOR 2810。FOR 2810可以包含可以由穿戴可穿戴设备的用户感知的对象组(例如,对象2812、2822、6050b、6050c)。FOV 2820可以包含多个对象(例如,对象6050、2822)。FOV可以取决于可穿戴系统的尺寸或光学特征,例如,头戴式显示器的透明窗或透镜的清晰孔尺寸,通过该头戴式显示器的透明窗或透镜,光从用户前面的真实世界传递到用户的眼睛。在一些实施例中,随着用户6100的姿势改变(例如,头部姿势、身体姿势、和/或眼睛姿势),FOV 2820可以相应地改变,并且FOV 2820内的对象也可以改变。如本文所描述的,可穿戴系统可以包括监测或成像FOR 2810内的对象以及FOV 2820内的对象的传感器(诸如相机)。在这样的实施例中,可穿戴系统可以警报(例如,经由图腾上的光图案)用户在用户的FOV 2820内发生或者在用户的FOV外部但是在FOR 2810内发生的未注意到的对象或事件。在一些实施例中,可穿戴系统还可以在用户6100注意什么或未注意什么之间进行区分。
FOV或FOR内的对象可以是虚拟或物理对象。虚拟对象可以包括例如操作系统对象,诸如例如,用于输入命令的终端、用于访问文件或目录的文件管理器、图标、菜单、用于音频或视频流的应用、来自操作系统的通知等等。虚拟对象还可以包括应用中的对象,诸如例如,化身、游戏中的虚拟对象、图形或图像等。一些虚拟对象可以是操作系统对象和应用中的对象二者。可穿戴系统可以将虚拟元素添加到通过头戴式显示器的透明光学器件观察的现有物理对象,从而允许与物理对象的用户交互。例如,可穿戴系统可以添加与房间中的医学监视器相关联的虚拟菜单,其中,虚拟菜单可以向用户给出使用可穿戴系统打开或者调节医学成像设备或剂量控制的选项。因此,除了用户的环境中的对象之外,可穿戴系统可以向穿戴者呈现附加的虚拟图像内容。
图腾可以经由光图案的放置和运动提供在FOV外部的对象的信息。可以通过可穿戴系统的各种部件(诸如,例如,图腾或可穿戴设备)计算和确定光图案的放置和运动。可穿戴系统可以使用与用户或对象相关联的上下文信息来确定光图案。例如,可穿戴系统可以采用以下因素,诸如,例如,对象的位置(包括对象相对于用户或用户的FOV的接近度)、对象的紧迫性、对象的类型(诸如,例如,对象是否是可交互的、对象支持什么类型的交互、对象是物理的还是或虚拟的)、对象的特性(诸如例如竞争者的化身和朋友的化身)、信息量(诸如,例如,通知的数目)、用户的偏好等。如图28B中的场景2834中所示,由于对象2840比其在场景2832中更远离用户6100,图腾2502上的光环2844可以看起来比光环2842(其具有较大的角范围)更小(例如,具有较短的角范围)。作为另一示例,光环可以具有更大并且更亮的外观,因为与光环相关联的对象更紧急或更接近于用户的FOV。
可穿戴系统可以基于相关联的对象的特征将颜色分配给辉光。例如,由于对象6050b与红色相关联,因而可穿戴系统可以将红色分配给辉光6051b。类似地,由于对象6051a是操作系统对象,因而可穿戴系统可以将蓝色分配给对象6051a,并且可穿戴系统将蓝色分配给所有操作系统对象。
可穿戴系统可以基于相关联的对象的特征将颜色分配给光环。例如,由于对象2840与绿色相关联,因而可穿戴系统可以将绿色分配给光环2842和2844。类似地,由于对象6050b是操作系统对象,因而可穿戴系统可以将红色分配给对象6051b,并且可穿戴系统将红色分配给所有操作系统对象。因此,与操作系统对象(包括对象6050b)相关联的光环可以为红色。
光环的外观可以基于与光环相关联的对象的改变随时间改变。例如,光环可以随着与光环相关联的对象接收更多消息变得更厚。作为另一示例,光环2844可以随着对象2840移动更接近于用户变得更大(或更亮)或可以随着对象2840移动远离用户变得更小(或更暗淡)。光环的位置也可以随着对象移动而改变。例如,在图28A中,由于对象6050b在用户6100的左侧,因而可穿戴系统可以初始在图腾的光导的左侧显示与对象6050b相关联的光环。但是当对象6050b移动到用户6100的右侧时,可穿戴系统可以将光环的位置更新到图腾的光导的右侧。
视觉辉光的外观也可以基于用户的姿势的改变来改变。例如,参考图28A,当用户6100向左转动时,对象6050b可以变得更接近于用户的FOV,同时变得更接近于对象6050c。因此,与对象6050b相关联的光环可以变得更亮(或更大)。
在一些情况下,FOR 2810和FOV 2820可以包括用户不能直接看到的不可见对象。例如,寻宝游戏可以包括用户的FOR 2810中的隐藏宝藏(例如以虚线示出的对象2812、2822)。由于宝藏可埋在游戏对象中,因而宝藏可能对于用户不直接可见。然而,用户可以使用游戏中的虚拟工具(诸如例如,虚拟铲)来揭示隐藏对象。作为另一示例,用户的物理汽车钥匙可能在一叠纸下面,并且用户可能不能够在用户的FOV中感知物理汽车钥匙。光环可以用于提供隐藏的汽车钥匙的位置的指示。例如,光环的弧的尺寸和位置可以指示汽车钥匙与图腾之间的相对距离和取向。汽车钥匙的位置可以基于用户的环境的地图(例如,基于先前由面向外的成像系统获取的图像)来确定或者可以基于图腾(或可穿戴系统的其他部件)与汽车钥匙之间的无线通信来确定,其中,钥匙配备有无线电或无线通信能力。
作为又一示例,对象(例如,对象6050a)可能在用户的视觉FOR外部,但是可能仍然潜在地被可穿戴设备或图腾上的传感器(例如,电磁传感器、射频传感器、与检测无线信号相关联的传感器、或另一环境传感器)感知。例如,对象6050a可以在用户的环境中的墙后面,以使得对象6050a不可由用户视觉感知。然而,可穿戴设备或图腾可以包括可以与对象6050a通信的传感器。
图腾可以经由光图案提供不可见对象的信息。光图案的放置和运动可以基于与不可见对象或用户相关联的上下文信息。例如,光导上的光图案的放置和运动可以充当指导用户在某个方向上查看或移动的指南针。作为另一示例,光图案可以提供用户的环境中的不可见对象的地图。例如,图腾可以照亮一点钟位置处的30度红色弧,以指示汽车钥匙的方向在用户的右前方,同时照亮六点钟位置处的90度绿色弧,以指示用户的移动电话在用户的后面。红色弧和绿色弧也可以用于指示汽车钥匙和移动电话的接近度。例如,移动电话比汽车钥匙更接近于用户,因此,绿色弧比红色弧更大。当用户移动时,光图案的放置(或运动)也可以改变。例如,随着用户向前移动,绿色弧的尺寸可以减小,而红色弧的尺寸可以增加。
在某些实施方式中,可穿戴系统可以呈现用户的物理或虚拟环境的地图,该地图可以指示不可见对象的位置。例如,HMD可以呈现示出用户可以发现的游戏中对象的虚拟地图。作为另一示例,HMD可以提供隐藏的物理汽车钥匙(或虚拟对象)的聚焦指示器或其他类型的视觉指示作为AR/MR内容。随着用户在环境中四处移动,聚焦指示器的外观(例如,尺寸和从用户的相对方向)可以改变。在一些情况下,HMD可以呈现到向不可见对象的路线。由HMD呈现的地图可以与图腾上的光环组合以将用户导引到不可见对象。
在一些实施例中,图腾可以呈现包括与多个对象相关联的信息的光环。例如,用户6100可以具有他或她左侧的红色对象6050b和他后面的不可见对象2812。图腾可以呈现具有光导的左侧的红色弧和光导的底部的银色弧的光环,其中,红色弧对应于红色对象6050b并且银色弧对应于不可见对象2812。
除了或者替代使用光图案来提供对象的信息,显示器还可以被配置为提供在FOV外部或不可见的对象的信息。例如,显示器可以显示用于用户的当前FOV外部的对应对象的视觉辉光。视觉辉光的一部分可以放置在显示器的用户的FOV的边缘上。辉光的放置可以基于对象的上下文信息。
除视觉辉光之外,可穿戴系统还可以使用触觉或听觉效果关于对象通知用户。例如,在混合现实游戏中,可穿戴系统可以通过图腾上的振动通知用户正接近的竞争者。当竞争者靠近用户时,可穿戴系统可以提供强振动。在另一示例中,可穿戴系统可以使用可听声音来提供虚拟对象的位置信息。可穿戴系统也可以使用大声来警报用户在附近具有虚拟竞争者。可以组合或替换地使用触觉、听觉或视觉反馈来通知用户周围对象。
图28C示出了用于使用光图案提供与对象相关联的信息的示例过程。可以通过本文所描述的可穿戴系统(诸如图腾或者可穿戴设备)执行过程2870。
在框2872处,可穿戴系统可以识别用户的环境中的对象。对象可以是物理或虚拟对象。对象可以在用户的FOR中,但是在用户的FOV外部。对象也可以从用户的视图隐藏。例如,对象可以在另一对象后面(例如,墙)或仅利用某个用户接口交互可见(例如,当用户完成游戏中的等级时)。
在框2874处,可穿戴系统可以访问与对象相关联的上下文信息。如在框2874处所示,上下文信息可以用于确定与对象相关联的光图案的运动和放置。例如,具有光图案的光环的亮度可以基于对象的接近度或紧迫性来确定。光环的颜色还可以匹配对象的颜色。
在框2878处,可穿戴系统可以指令图腾的LED根据光图案照亮。例如,指令可以包括哪些LED应当照亮、LED的亮度、LED的颜色、与由LED发射的光相关联的运动图案等。
图29A示出了指示通知的接收的示例光放置或者运动图案。图案2912和2914包括虹彩图案。图腾可以以顺时针循环显示虹彩痕迹(如由过程2920示出)以提供通知。通知可以与虚拟对象(诸如,例如,电子邮件应用、游戏、视频应用等)相关联。通知也可以与可穿戴设备的操作系统相关联。一个示例通知可以是来自可穿戴设备的操作系统的错误消息。附加地或者可替代地,通知可以与物理对象相关联。例如,虹彩图案2912和2914可以指示用户的厨房中的咖啡机已经完成酿造。
图腾可以重复虹彩痕迹,直到达到阈值条件。阈值条件可以基于持续时间、用户交互(诸如例如,触发器1212的致动)、或其他上下文信息。
图29B示出了用于使用图腾上的光图案提供通知的示例过程。可以通过本文所描述的可穿戴系统(诸如图腾或者可穿戴设备)执行示例过程2970。
在框2972处,可穿戴系统可以确定虚拟对象的状态。例如,状态可以包括虚拟对象是否已经接收新信息(例如,新消息)、虚拟对象是否空闲、虚拟对象是否已经遇到问题等。
可选地在框2974处,图腾可以至少部分地基于状态来生成警报。例如,虚拟对象可以是通讯应用。当虚拟对象从用户的朋友接收到新消息时,可穿戴系统可以生成指示新消息已经到达的警报。
在框2976处,可穿戴系统可以访问与虚拟对象的状态(或可选地警报)相关联的光图案。放置或者运动图案可以基于与虚拟对象(或警报)相关联的上下文信息(诸如,例如,警报的重要性、警报的紧迫性、虚拟对象的位置、虚拟对象的类型等)来确定。
在框2978处,可穿戴系统可以指令图腾的LED根据光图案照亮。例如,可穿戴系统可以提供关于哪些LED应当照亮、LED的亮度、LED的颜色、与由LED发射的光相关联的运动图案的指令等。
除了或者替代提供关于FOV外部的对象的信息,光图案也可以用于提供不必在FOV外部的对象的信息。例如,当用户赢得游戏中的等级时,图腾可以点亮具有与游戏相同颜色的光环。作为另一示例,参考图29A,与通知相关联的虚拟应用可以在FOV内部。用户可以与电子邮件应用交互,例如,通过编写消息,同时接收新电子邮件已经到达的通知。
图腾可以向用户或用户的信息的另一人提供用户的当前交互的视觉反馈。例如,当用户利用其HMD记录视频时,图腾可以照亮闪烁红色光图案以向用户强调并且向附近其他人指示HMD处于记录模式。
图30示出了可以用于通知用户的环境中的人用户的当前交互的示例光图案。例如,当用户在远程呈现会话中时,图腾可以经由光导照亮光图案3000(例如,具有顺时针运动的绿色光环)。光图案3000可以通知用户的环境中的人用户在远程呈现中。这可以帮助防止其他人太接近用户并且从而使防止其他人中断用户的远程呈现会话。除了或者替代光图案,其他类型的反馈(诸如,例如,触觉、音频、视频反馈等等)也可以用于指示可穿戴系统的用户当前交互。
附加方面
在第1方面中,一种系统,包括:用户输入设备的发光组件,其中,该发光组件被配置为照亮多个光图案,以用于提供环境中的对象的信息;硬件处理器,其被通信地耦接到该发光组件并且被编程为:识别用户的环境中的对象;访问与该对象相关联的上下文信息;至少部分地基于该上下文信息,确定待由该发光组件照亮的光图案的特征;以及指令该发光组件根据该光图案照亮。
在第2方面中,根据第1方面所述的系统,其中,该对象包括以下各项中的至少一项:物理对象或虚拟对象。
在第3方面中,根据第2方面所述的系统,其中,该虚拟对象的状态包括以下各项中的至少一项:由该用户与该虚拟对象的当前交互、该虚拟对象是否已经接收新信息、该虚拟对象是否空闲、或该虚拟对象是否处于错误状态。
在第4方面中,根据第1-3方面中的任一项所述的系统,其中,该光图案的特征包括以下各项中的至少一项:亮度、位置、形状、尺寸、或颜色。
在第5方面中,根据第1-4方面中的任一项所述的系统,其中,与该对象相关联的上下文信息包括以下各项中的至少一项:该对象的位置、该对象的紧迫性、该对象的类型、该对象的特性、与该对象相关联的大量信息、或该用户的偏好。
在第6方面中,根据第1-5方面中的任一项所述的系统,其中,该系统还包括可穿戴显示设备,并且该对象从用户的视野不可见或者经由该可穿戴显示设备在外部,并且该硬件处理器被编程为确定该光图案的尺寸、形状或颜色中的至少一者以向该用户提供用于定位对象的线索。
在第7方面中,根据第1-6方面中的任一项所述的系统,其中,对象是用于向用户呈现视觉内容的可穿戴系统的部件,并且该光图案指示该可穿戴系统的该部件的状态。
在第8方面中,根据第7方面所述的系统,其中,该部件包括以下各项中的至少一项:该用户输入设备、可穿戴显示设备、或电池组。
在第9方面中,根据第1-8方面中的任一项所述的系统,其中,该状态包括以下各项中的至少一项:电池状态、电源充电状态、该可穿戴显示设备与该用户输入设备之间的无线配对状态、该用户输入设备的校准过程的状态、或该可穿戴显示设备的状态。
在第10方面中,根据第1-9方面中的任一项所述的系统,其中,该光图案编码与该对象相关联的警报或者信息。
在第11方面中,根据第1-10方面中的任一项所述的系统,其中,该状态包括以下各项中的至少一项:由该用户与该对象的当前交互、该对象是否已经接收新信息、该对象是否空闲、或该对象是否处于错误状态。
在第12方面中,根据第1-11方面中的任一项所述的系统,其中,该光图案的特征可由用户经由应用编程接口配置。
在第13方面中,一种发光用户输入设备,包括:触摸部件,其被配置为接受用户输入;发光组件,其被配置为输出多个光图案,该发光组件至少部分地围绕该触摸部件;以及硬件处理器,其被通信地耦接到该触摸部件和该发光组件,并且被编程为:基于上下文信息,识别由该触摸部件支持的用户接口操作;确定与该用户接口操作相关联的第一光图案;生成并向该发光组件传送指令以显示具有该第一光图案的光环;接收该触摸部件上的用户输入;以及利用第二光图案更新该光环以反映该用户输入。
在第14方面中,根据第13方面所述的发光用户输入设备,其中,该上下文信息包括以下各项中的至少一项:该用户的环境、由该发光用户输入设备支持的输入的类型、与该手持式用户输入设备被配置为交互的对象相关联的信息、或者与该手持式用户输入设备相关联的可穿戴设备的特征。
在第15方面中,根据第13或14方面所述的发光用户输入设备,其中,该发光组件包括光导和LED的环。
在第16方面中,根据第13-15方面中的任一项所述的发光用户输入设备,其中,该发光组件被配置为接受多个用户输入,并且其中,该硬件处理器还被编程为通过致动该光导至少部分地基于支持的该多个用户输入来显示该光环。
在第17方面中,根据第13-16方面中的任一项所述的发光用户输入设备,其中,该用户输入包括以下各项中的至少一项:滑动、轻叩、按压、或触摸手势。
在第18方面中,根据第13-17方面中的任一项所述的发光用户输入设备,其中,该发光用户输入设备包括以下各项中的至少一项:图腾、智能手表、或智能电话。
在第19方面中,根据第13-18方面中的任一项所述的发光用户输入设备,其中,该第一光图案向用户提供该用户接口操作由该发光用户输入设备支持的线索。
在第20方面中,根据第13-19方面中的任一项所述的发光用户输入设备,其中,该硬件处理器还被编程为:基于该上下文信息,确定接收到的用户输入是否不恰当;以及其中,响应于确定接收到的用户输入不恰当,该第二光图案提供接收到的用户输入不恰当的视觉警报。
在第21方面中,根据第13-20方面中的任一项所述的发光用户输入设备,其中,与该第一光图案相比较,该光环的至少一部分看起来在该第二光图案中更亮或更大。
在第22方面中,根据第13-21方面中的任一项所述的发光用户输入设备,其中,该多个光图案的特征可由用户经由应用编程接口配置。
在第23方面中,根据第22方面所述的发光用户输入设备,其中,该特征包括以下各项中的至少一项:弧的放置或者运动图案、颜色、亮度、形状、或尺寸。
在第24方面中,根据第13-23方面中的任一项所述的发光用户输入设备,其中,响应于该用户输入,该第二光图案指示以下各项中的至少一项:电池状态、电源充电状态、该手持式用户输入设备与另一计算设备之间的无线配对状态、或该手持式用户输入设备是否空闲。
在第25方面中,一种方法,包括:在硬件处理器的控制下:基于上下文信息来识别由发光用户输入设备支持的用户输入的类型,其中,该发光用户输入设备包括用于照亮多个光图案的第一元件和用于接收用户输入的第二元件;确定与支持的用户输入的类型相关联的第一光图案;生成并向该第一元件传送指令以照亮具有该第一光图案的光环;基于该发光用户输入设备上的用户输入来确定第二光图案;以及响应于该用户输入,将该光环更新到该第二光图案。
在第26方面中,根据第25方面所述的方法,其中,该第一元件还被配置为接收另一用户输入,并且其中,用于确定该第一光图案的用户输入的类型与由该第一元件支持的其他用户输入相关联。虽然第25和26方面记载了第一元件和第二元件,但是词语元件可以由词语部分替代并且这两个方面中的词语元件可以包括发光用户输入设备的单独部件或子部件、或部件(子部件)的组合。
在第27方面中,根据第25或26方面所述的方法,其中,该上下文信息包括以下各项中的至少一项:该用户的环境、由该发光用户输入设备支持的输入的类型、与该手持式用户输入设备被配置为交互的对象相关联的信息、或者与该手持式用户输入设备相关联的可穿戴设备的特征。
在第28方面中,根据第25-27方面中的任一项所述的方法,其中,用户输入的该类型包括以下各项中的至少一项:滑动、轻叩、按压、或触摸输入。
在第29方面中,根据第25-28方面中的任一项所述的方法,其中,该第一光图案向用户提供用户输入的类型由该发光用户输入设备支持的线索。
在第30方面中,根据第25-29方面中的任一项所述的方法,还包括:基于该上下文信息,确定由该发光用户输入设备接收到的用户输入是否不恰当;以及其中,响应于该用户输入不恰当,该第二光图案提供该用户输入不恰当的视觉警报。
在第31方面中,根据第25-30方面中的任一项所述的方法,其中,与该第一光图案相比较,该光环的至少一部分看起来在该第二光图案中更亮或更大。
在第32方面中,一种发光用户输入设备,包括:多个可交互区域,其被配置为接收用户输入,其中,该多个可交互区域中的至少一个可交互区域包括是该发光用户输入设备的发光组件的一部分;以及硬件处理器,其被编程为:检测该发光用户输入设备的用户的致动;确定多个可交互区域中对应于该用户的致动的可交互区域;将该用户的致动转译为用户输入,以用于至少基于该致动的类型以及与该致动相关联的该可交互区域而执行用户接口操作;以及指令该发光组件响应于该用户输入来照亮光图案。
在第33方面中,根据第32方面所述的发光用户输入设备,其中,该发光用户输入设备还包括触摸表面,并且该发光组件包括光导,并且其中,该多个可交互区域包括与该光导相关联的第一可交互区域以及与该触摸表面相关联的第二可交互区域。
在第34方面中,根据第33方面所述的发光用户输入设备,其中,响应于检测到该用户致动该第一可交互区域,该硬件处理器被编程为使得该发光组件照亮与该第一可交互区域内的该用户输入相关联的第一光图案,并且其中,响应于检测到该用户致动该第二可交互区域,该硬件处理器被编程为使得该发光组件照亮与该第二可交互区域内的用户输入相关联的第二光图案。
在第35方面中,根据第32-34方面中的任一项所述的发光用户输入设备,其中,该光图案至少部分地基于与该发光用户输入设备相关联的上下文信息来确定。
在第36方面中,根据第32-35方面中的任一项所述的发光用户输入设备,其中,该用户的致动包括以下各项中的至少一项:滑动、轻叩、按压、或触摸手势。
在第37方面中,根据第32-36方面中的任一项所述的发光用户输入设备,其中,该光图案包括具有颜色、弧形长度、或视觉效果的弧形区域。
在第38方面中,根据第32-37方面中的任一项所述的发光用户输入设备,其中,该硬件处理器还被编程为与可穿戴设备通信,以使得该可穿戴设备基于该用户输入来执行用户接口操作。
在第39方面中,一种方法,包括:在硬件处理器的控制下:检测发光用户输入设备的用户的致动,其中,该发光用户输入设备包括多个可交互区域;确定多个可交互区域中对应于该用户的致动的可交互区域;将该用户的致动转译为用户输入,以用于至少基于该致动的类型以及与该致动相关联的该可交互区域而执行用户接口操作;以及使得发光用户输入设备的发光组件响应于该用户输入来照亮光图案。
在第40方面中,根据第39方面所述的方法,其中,该多个可交互区域包括支持第一用户输入类型的第一可交互区域和支持第二用户输入类型的第二可交互区域。
在第41方面中,根据第40方面所述的方法,其中,响应于检测到该用户致动该第一可交互区域,该硬件处理器被编程为使得该发光组件照亮与该第一可交互区域内的用户输入相关联的第一光图案,并且其中,响应于检测到该用户致动该第二可交互区域,该硬件处理器被编程为使得该发光组件照亮与该第二可交互区域内的该用户输入相关联的第二光图案。
在第42方面中,根据第40或41方面所述的方法,其中,该第一用户输入类型或者该第二用户输入类型中的至少一者取决于上下文信息,该上下文信息与与可穿戴系统的用户交互相关联,并且其中,该上下文信息包括以下各项中的至少一项:用户正交互的应用的类型、由该多个可交互区域支持的可用用户输入、或者该用户的虚拟环境。
在第43方面中,根据第39-42方面中的任一项所述的方法,其中,该发光用户输入设备包括被分成一个或多个可交互区域的触摸表面。
在第44方面中,根据第39-43方面中的任一项所述的方法,其中,该光图案至少部分地基于与该发光用户输入设备相关联的上下文信息来确定。
在第45方面中,根据第39-44方面中的任一项所述的方法,其中,该多个可交互区域包括该发光用户输入设备的发光组件。
在第46方面中,根据第39-45方面中的任一项所述的方法,其中,该用户的致动包括以下各项中的至少一项:滑动、轻叩、按压、或触摸手势。
在第47方面中,根据第39-46方面中的任一项所述的方法,其中,该光图案包括具有颜色、弧形长度、或视觉效果的弧形区域。
在第48方面中,一种用于校准发光用户输入设备的系统,该系统包括:面向外的成像系统,其被配置为对环境成像;发光用户输入设备,其被配置为照亮光图案;以及硬件处理器,其与该面向外的成像系统和该发光用户输入设备通信,并且被编程为:访问与该发光用户输入设备从第一姿势到第二姿势的运动相关联的由该发光用户输入设备的传感器获取的第一运动数据;确定该发光用户输入设备的第一图像,其中,该第一图像包括对应于该发光用户输入设备的第一姿势的光图案;确定由该面向外的成像系统获取的发光用户输入设备的第二图像,其中,该第二图像包括对应于该发光用户输入设备的第二姿势的光图案;分析该第二图像以计算与该发光用户输入设备的运动相关联的第二运动数据;检测该第一运动数据与该第二运动数据之间的差异;以及响应于确定该差异超过阈值条件,使得该发光用户输入设备的传感器被校准。
在第49方面中,根据第48方面所述的系统,其中,该发光用户输入设备从该第一姿势到该第二姿势的运动包括该发光用户输入设备的位置或者取向中的至少一者的改变。
在第50方面中,根据第48或49方面所述的系统,其中,该第一姿势或者该第二姿势对应于该发光用户输入设备的基准位置。
在第51方面中,根据第48-50方面中的任一项所述的系统,其中,该光图案与由围绕该发光用户输入设备的可触摸部分的多个发光二极管照亮的光环相关联。
在第52方面中,根据第48-51方面中的任一项所述的系统,其中,为了计算该第二运动数据,该硬件处理器被编程为计算该光环在该第一图像和该第二图像中的形状的改变。
在第53方面中,根据第48-52方面中的任一项所述的系统,其中,该发光用户输入设备是用于与增强现实设备交互的图腾。
在第54方面中,根据第53方面所述的系统,其中,该传感器是该图腾的惯性测量单元(IMU)的一部分,其中,该传感器通过调节以下各项中的至少一项来校准:该图腾对用户的运动的响应性、或者该用户的运动与该IMU的测量结果之间的映射。
在第55方面中,根据第53或54方面所述的系统,其中,该图腾还被配置为向该用户提供视觉指示以将该发光用户输入设备从该第一姿势移动到该第二姿势。
在第56方面中,根据第53-55方面中的任一项所述的系统,其中,该图腾具有三个自由度。
在第57方面中,根据第48-56方面中的任一项所述的系统,其中,该硬件处理器被编程为应用计算机视觉算法来分析该第一图像和该第二图像,以识别该第一图像和该第二图像中的光图案。
在第58方面中,根据第48-57方面中的任一项所述的系统,其中,响应于确定该发光用户输入设备的校准已经完成,该发光用户输入设备能够照亮另一光图案。
在第59方面中,根据第48-58方面中的任一项所述的系统,其中,该硬件处理器被编程为确定该校准的类型,并且其中,由该发光用户输入设备照亮的该光图案对应于该校准的类型。
在第60方面中,一种校准发光用户输入设备的方法,该方法包括:在硬件处理器的控制下:接收处于一定姿势的发光用户输入设备的运动数据,其中,该运动数据由该发光用户输入设备的传感器获取;接收处于该姿势的发光用户输入设备的图像;分析该图像以识别由该发光用户输入设备照亮的光图案的形状;基于该运动数据来计算处于该姿势的发光用户输入设备的第一位置或者第一取向中的至少一者;基于该光图案的形状计算处于该姿势的该发光用户输入设备的第二位置或者第二取向中的至少一者;确定该第一位置与该第二位置、或者该第一取向与该第二取向之间的差异;以及响应于确定该差异超过阈值条件来校准该发光用户输入设备的该传感器。
在第61方面中,根据第60方面所述的方法,其中,该第一位置、该第一取向、该第二位置、或该第二取向参考基准姿势来计算。
在第62方面中,根据第60或61方面所述的方法,其中,该图像中的光图案的形状是椭圆形,而该光图案在该基准姿势中的形状是圆形。
在第63方面中,根据第60-62方面中的任一项所述的方法,其中,该光图案的位置或者运动图案中的至少一者对应于正被校准的该传感器的类型。
在第64方面中,根据第60-63方面中的任一项所述的方法,还包括:响应于确定该校准成功,提供视觉、听觉或触觉反馈中的至少一种。
在第65方面中,根据第60方面所述的方法,其中,校准该传感器包括调节该传感器对用户的运动的响应性、或者该用户的运动与该传感器的测量结果之间的映射中的至少一种。
在第66方面中,一种用于校准发光用户输入设备的系统,该系统包括:面向外的成像系统,其被配置为对环境成像;以及硬件处理器,其与该面向外的成像系统通信,并且被编程为:接收该环境的图像;分析该图像以识别发光用户输入设备;确定该发光用户输入设备的第一姿势和照亮的光环的光图案的第一外观;至少部分地基于该图像的分析来识别该照亮的光环的光图案的第二外观;确定该发光用户输入设备的姿势的第一改变;接收由该发光用户输入设备所测量的发光用户输入设备的运动数据;至少部分地基于该图像的分析来计算该发光用户输入设备的姿势的第二改变;计算该第一改变与该第二改变之间的差以确定该差是否超过阈值;以及响应于确定该差超过该阈值条件,校准该发光用户输入设备的该传感器。
在第67方面中,根据第66方面所述的系统,其中,该发光用户输入设备的姿势包括该发光用户输入设备的位置和取向。
在第68方面中,根据第66或67方面所述的系统,其中,该发光用户输入设备包括以下各项中的至少一项:图腾、智能手表、或智能电话,并且其中,该传感器是IMU。
在第69方面中,根据第66-68方面中的任一项所述的系统,其中,响应于确定该差不超过该阈值,该硬件处理器被编程为提供该传感器被校准的指示。
在第70方面中,根据第66-69方面中的任一项所述的系统,其中,该指示包括该发光用户输入设备上的视觉、听觉、或触觉反馈。
在第71方面中,根据第66-70方面中的任一项所述的系统,其中,该第一位置是该发光用户输入设备的基准位置。
在第72方面中,根据第66-71方面中的任一项所述的系统,其中,该发光用户输入设备还被配置为照亮一系列光图案,以用于导引该发光用户输入设备的用户将该用户输入设备定位到包括该第一姿势和该第二姿势的姿势。
在第73方面中,根据第66-72方面中的任一项所述的系统,其中,为了至少部分地基于该图像的分析来计算该发光用户输入设备的姿势的第二改变,该硬件处理器被编程为确定该第二外观中的光图案的形状相对于该第一外观中的光图案的形状的变形。
在第74方面中,根据第66-73方面中的任一项所述的系统,其中,该发光用户输入设备是可穿戴系统的一部分,该可穿戴系统还包括用于在增强现实、虚拟现实、或混合现实环境中呈现虚拟内容的可穿戴显示器。
在第75方面中,根据第66方面所述的系统,其中,为了校准该传感器,该硬件处理器被编程为调节该传感器对用户的运动的响应性、或者该用户的运动与该传感器的测量结果之间的映射中的至少一者。
在第76方面中,一种用于校准发光用户输入设备的方法,该方法包括:在包括发光组件和硬件处理器的发光用户输入设备的控制下:确定该发光用户输入设备的第一姿势;使得该发光组件照亮第一光图案以用于导引用户将该发光用户输入设备移动到第二姿势;响应于确定该发光用户输入设备被移动到该第二姿势:获取该发光用户输入设备的姿势数据;至少部分地基于该姿势数据来校准该发光用户输入设备;以及向该用户提供该校准过程完成的指示。
在第77方面中,根据第76方面所述的方法,其中,确定该第一姿势至少部分地基于从该发光用户输入设备的惯性测量单元(IMU)获取的数据。
在第78方面中,根据第76-77方面中的任一项所述的方法,其中,该指示包括听觉、视觉、或触觉指示中的至少一者。
在第79方面中,根据第76-78方面中的任一项所述的方法,其中,该指示包括第二光图案。
在第80方面中,根据第76-79方面中的任一项所述的方法,其中,该姿势数据包括该发光用户输入设备的位置或者取向数据中的至少一者。
在第81方面中,根据第76-80方面中的任一项所述的方法,其中,该发光用户输入设备的该姿势数据包括当该发光用户输入设备处于多个姿势时获取的数据。
在第82方面中,根据第76-81方面中的任一项所述的方法,还包括:使该发光组件照亮指示校准过程的发起的第三光图案。
在第83方面中,一种用于校准发光用户输入设备的系统,该系统包括:一个或多个传感器,其被配置为获取该发光用户输入设备的运动数据;该发光用户输入设备的发光组件,其被配置为输出多个光图案;以及硬件处理器,其被编程为:向用户提供第一指示以将该发光用户输入设备定位到一定姿势;获取发光用户输入设备到该姿势的运动数据;至少部分地基于该运动数据来校准该发光用户输入设备;以及向该用户提供该校准过程完成的指示。
在第84方面中,根据第83方面所述的系统,其中,该第一指示包括光图案,该光图案的放置、运动或者组合向该用户提供将该发光用户输入设备移动到该姿势的导引。
在第85方面中,根据第83或84方面所述的系统,其中,该发光用户输入设备是用于与增强或混合现实环境交互的可穿戴系统的一部分,该第一指示包括由该可穿戴系统的头戴式显示器提供的虚拟图像,该虚拟图像指示待由该用户定位的图腾的姿势。
在第86方面中,根据第83-85方面中的任一项所述的系统,其中,该硬件处理器还被编程为:响应于确定该发光用户输入设备被校准,提供通知该发光用户输入设备被校准的第二指示;或响应于确定响应于确定该发光用户输入设备未被校准,继续校准该发光用户输入设备。
在第87方面中,根据第83-86方面中的任一项所述的系统,其中,该硬件处理器还被编程为检测用于启动该发光用户输入设备的校准过程的发起条件。
在第88方面中,根据第83-87方面中的任一项所述的系统,其中,为了校准该发光用户输入设备,该硬件处理器被编程为:访问包括处于该姿势的发光用户输入设备的图像;以及分析该运动数据和该图像以识别根据该运动数据计算的与根据该图像确定的该发光用户输入设备的位置或者取向中的至少一者的差异。
在第89方面中,根据第83-88方面中的任一项所述的系统,其中,该发光用户输入设备包括图腾,该图腾包括触摸表面,并且该发光组件邻近该触摸表面定位。
在第90方面中,一种用于配对发光用户输入设备的可穿戴设备,该可穿戴设备包括:面向外的成像系统,其被配置为对环境成像;以及硬件处理器,其与该面向外的成像系统通信,并且被编程为:接收由该面向外的成像系统获取的图像,其中,该图像包括由发光用户输入设备照亮的光图案;识别待与该可穿戴设备配对的发光用户输入设备;分析该图像以识别该光图案,该光图案编码与将该发光用户输入设备与可穿戴设备配对相关联的信息;提取编码在该光图案中的用于将该发光用户输入设备与该可穿戴设备配对的信息;以及至少部分地基于所提取的信息,将该发光用户输入设备与可穿戴设备配对。
在第91方面中,根据第90方面所述的可穿戴设备,其中,该硬件处理器还被编程为:确定该发光用户输入设备与该可穿戴设备之间的配对是否成功;以及响应于确定该配对成功,指令该发光用户输入设备照亮指示成功配对的另一光图案。
在第92方面中,根据第90或91方面所述的可穿戴设备,其中,该硬件处理器还被编程为响应于确定该配对成功,经由无线连接与该发光用户输入设备通信。
在第93方面中,根据第92方面所述的可穿戴设备,其中,该无线连接包括蓝牙连接。
在第94方面中,根据第90-93方面中的任一项所述的可穿戴设备,其中,由该光图案编码的信息包括该发光用户输入设备的设备信息。
在第95方面中,根据第90-94方面中的任一项所述的可穿戴设备,其中,该光图案以二进制形式编码该信息。
在第96方面中,根据第90-95方面中的任一项所述的可穿戴设备,其中,该光图案包括编码与该配对相关联的信息的一种或多种颜色。
在第97方面中,根据第90-96方面中的任一项所述的可穿戴设备,其中,该光图案的一部分包括该电磁光谱的不可见部分的光。
在第98方面中,根据第90-97方面中的任一项所述的可穿戴系统,其中,该可穿戴设备包括用于在混合现实环境中呈现虚拟内容的头戴式显示器,并且面向外的成像系统包括安装到该头戴式显示器的相机。
在第99方面中,一种用于配对发光用户输入设备的方法,该方法包括:在硬件处理器的控制下:发起发光用户输入设备与电子设备之间的配对过程;访问由相机获取的图像,其中,该图像包括由该发光用户输入设备照亮的光图案;识别待与该电子设备配对的该发光用户输入设备;分析该图像以识别该光图案,该光图案编码与将该发光用户输入设备与该电子设备配对相关联的信息;提取编码在光图案中的用于将该发光用户输入设备与该电子设备配对的信息;以及至少部分地基于所提取的信息,将该发光用户输入设备与该电子设备配对。
在第100方面中,根据第99方面所述的方法,其中,该电子设备包括用于在混合现实环境中呈现虚拟内容的可穿戴系统的部件。
在第101方面中,根据第100方面所述的方法,其中,该电子设备包括另一用户输入设备或者头戴式显示器。
在第102方面中,根据第99-101方面中的任一项所述的方法,还包括:响应于确定该配对过程成功,建立该发光用户输入设备与该电子设备之间的无线连接。
在第103方面中,根据第99-102方面中的任一项所述的方法,其中,由该光图案编码的信息包括该发光用户输入设备的设备信息,其中,该设备信息包括以下各项中的至少一项:设备标识符、用于该发光用户输入设备的识别信息、或用于将该发光用户输入设备与该电子设备配对的密钥。
在第104方面中,根据第103方面所述的方法,其中,该光图案以二进制形式编码该信息。
在第105方面中,根据第99-104方面中的任一项所述的方法,其中,该光图案包括编码该配对过程的信息的一种或多种颜色。
在第106方面中,根据第99-105方面中的任一项所述的方法,其中,该光图案的一部分包括该电磁光谱的不可见部分的光。
在第107方面中,一种用于配对发光用户输入设备的系统,该系统包括:多个发光二极管(LED),其被配置为输出光图案;硬件处理器,其被编程为:发起与电子设备的配对过程;使得该多个LED中的一个或多个LED照亮编码用于该配对过程的信息的第一光图案;以及响应于确定该电子设备成功配对,照亮指示该配对成功的第二光图案。
在第108方面中,根据第107方面所述的系统,其中,该第一光图案编码以下各项中的至少一项:与该用户输入设备相关联的设备信息或者使得其他计算设备发起配对过程的触发器消息。
在第109方面中,根据第107或108方面所述的系统,其中,该硬件处理器被编程为:在该配对过程期间接收来自该电子设备的响应;以及使得该多个LED中的第二一个或多个LED照亮第三光图案,该第三光图案编码应答该响应的应答消息。
在第110方面中,根据第107-109方面中的任一项所述的系统,其中,该多个LED中的一个或多个LED的照亮以二进制形式编码该配对过程的信息。
在第111方面中,根据第107-110方面中的任一项所述的系统,其中,与该一个或多个LED的照亮相关联的颜色编码该配对过程的信息。
在第112方面中,根据第107-111方面中的任一项所述的系统,其中,该第一光图案或者该第二光图案的一部分包括该电磁光谱的不可见部分的光。
在第113方面中,一种方法,包括:在包括用于照亮多个光图案的发光组件的第一电子设备的硬件处理器的控制下:发起该第一电子设备与第二电子设备之间的通信;使得该第一电子设备照亮编码用于该通信的消息的光图案;接收来自该第二电子设备的响应;以及至少部分地基于来自该第二电子设备的响应,使得将指示提供给该第一电子设备的用户。
在第114方面中,根据第113方面所述的方法,其中,该通信包括该第一电子设备与该第二电子设备之间的配对过程。
在第115方面中,根据第114方面所述的方法,其中,该第一光图案编码以下各项中的至少一项:与该用户输入设备相关联的设备信息或者使得其他计算设备发起配对过程的触发器消息。
在第116方面中,根据第114或115方面所述的方法,其中,该指示包括由该第一电子设备照亮的第二光图案,响应于确定该第一电子设备和该第二电子设备成功配对,该第二光图案指示该第一电子设备与该第二电子设备之间的配对已经完成。
在第117方面中,根据第113-116中的任一项所述的方法,其中,该指示包括由第一电子设备照亮的第三光图案,该第三光图案编码应答该响应的应答消息。
在第118方面中,根据第113-117方面中的任一项所述的方法,其中,该第一光图案以二进制形式将信息编码在该消息中。
在第119方面中,根据第113-118方面中的任一项所述的方法,其中,该光图案包括进一步编码该通信的消息的一种或多种颜色。
在第120方面中,一种发光用户输入设备,包括:触摸板组件,其被配置为接收用户输入;以及本体,其包括用于支持该触摸板组件,其中,该触摸板组件包括:触摸表面;触摸传感器,其被耦接到该触摸表面,其中,该触摸传感器的至少一部分在该触摸表面下面并且被配置为检测该触摸表面的致动;发光组件,其包括光学漫射元件和多个光照亮元件,其中,发光组件被耦接到该触摸传感器和该触摸表面并且被配置为显示多个光图案;以及印刷电路板,其被耦接到该发光组件和该触摸传感器。
在第121方面中,根据第120方面所述的发光用户输入设备,其中,该光学漫射元件的至少一部分被叠置在该触摸传感器上,并且该触摸传感器还被配置为检测该光学漫射元件的致动。
在第122方面中,根据第120或121方面所述的发光用户输入设备,其中,该光学漫射元件包括光导。
在第123方面中,根据第120-122方面中的任一项所述的发光用户输入设备,其中,该光学漫射元件基本上围绕该触摸表面。
在第124方面中,根据第120-123方面中的任一项所述的发光用户输入设备,其中,该触摸板组件还包括用于保持该发光组件、该触摸表面和该触摸传感器的支架。
在第125方面中,根据第120-124方面中的任一项所述的发光用户输入设备,其中,该多个光照亮元件包括发光二极管。
在第126方面中,根据第120-125方面中的任一项所述的发光用户输入设备,还包括连接接口,其被配置为建立与可穿戴设备的无线连接,该可穿戴设备被配置为呈现混合现实内容。
在第127方面中,根据第120-126方面中的任一项所述的发光用户输入设备,其中,本体具有用于支持该触摸板组件的上部和被配置为可移除地安装到底座的底部。
在第128方面中,根据第120-127方面中的任一项所述的发光用户输入设备,其中,该本体还包括用于用户交互的触发器、缓冲器、或主页按钮中的至少一者。
在第129方面中,根据第120-128方面中的任一项所述的发光用户输入设备,还包括硬件处理器,其被编程为控制该多个光照亮元件的照亮。
在第130方面中,一种发光用户输入设备,包括:本体,其包括外部触摸表面;两个或两个以上传感器,其中的至少一者包括触摸传感器,该触摸传感器被定位在该触摸表面下面并且被配置为检测施加到该触摸表面的触摸输入;多个发光二极管(LED),其被定位在该触摸表面下面;硬件处理器,其被编程为:接收来自该两个或两个以上传感器的数据;以及基于从至少一个或该两个或两个以上传感器接收到的数据,激活该多个LED中的一个或多个。
在第131方面中,根据第130方面所述的发光用户输入设备,还包括一个或多个光学部件,其邻近该多个LED中的一个或多个定位,该一个或多个光学部件被配置为漫射由邻近其定位的一个或多个LED发射的光。
在第132方面中,根据第131方面所述的发光用户输入设备,其中,该一个或多个光学部件被定位在该触摸表面下面。
在第133方面中,根据第131或132方面所述的发光用户输入设备,其中,该一个或多个光学部件被定位在该触摸表面旁边。
在第134方面中,根据第131-133方面中的任一项所述的发光用户输入设备,其中,该一个或多个光学部件包括至少一个光导。
在第135方面中,根据第130-134方面中的任一项所述的发光用户输入设备,其中,该多个LED被布置在该触摸表面下面的环中。
在第136方面中,根据第130-135方面中的任一项所述的发光用户输入设备,其中,该触摸表面是圆形的。
在第137方面中,根据第136方面所述的发光用户输入设备,其中,该触摸表面是具有27mm-40mm之间的直径的圆形表面。
在第138方面中,根据第130-137方面中的任一项所述的发光用户输入设备,其中,该本体还包括伸长部,该伸长部被配置为保持在该发光用户输入设备的用户的手中。
在第139方面中,根据第138方面所述的发光用户输入设备,其中,该本体还包括相对于该伸长部成角度的上部。
在第140方面中,根据第139方面所述的发光用户输入设备,其中,该触摸表面被包括作为该本体的上部的一部分。
在第141方面中,根据第130-140方面中的任一项所述的发光用户输入设备,还包括按钮,其中,该两个或两个以上传感器包括被配置为检测该按钮的致动的压力传感器。
在第142方面中,根据第130-141方面中的任一项所述的发光用户输入设备,其中,该两个或两个以上传感器包括惯性测量单元(IMU)。
在第143方面中,根据第130-142方面中的任一项所述的发光用户输入设备,还包括通信接口,其被配置为通过网络与其他电子设备建立通信。
在第144方面中,根据第143方面所述的发光用户输入设备,其中,该硬件处理器还被编程为基于通过该网络从其他电子设备接收到的消息来激活该多个LED中的一个或多个。
在第145方面中,根据第143或144方面所述的发光用户输入设备,其中,该其他电子设备包括增强现实(AR)系统的部件。
在第146方面中,一种用于校准发光用户输入设备的可穿戴系统,该可穿戴系统包括:面向外的成像系统,其被配置为对环境成像;发光用户输入设备,其被配置为照亮光图案;以及硬件处理器,其被编程为:获取与该发光用户输入设备从第一姿势到第二姿势的运动相关联的第一运动数据;从该面向外的成像系统接收该发光用户输入设备的第一图像,其中,该第一图像包括该光图案的第一图像并且对应于该发光用户输入设备的第一姿势;访问该发光用户输入设备的第二图像,其中,该第二图像包括该光图案的第二图像并且对应于该发光用户输入设备的第二姿势;分析该第一图像和该第二图像以计算与该发光用户输入设备的运动相关联的第二运动数据;检测该第一运动数据与该第二运动数据之间的差异;以及响应于确定该差异超过阈值条件来校准该发光用户输入设备。
在第147方面中,根据第146方面所述的可穿戴系统,其中,该第一姿势和该第二姿势包括该发光用户输入设备的位置和取向。
在第148方面中,根据第146-147方面中的任一项所述的可穿戴系统,其中,该第一姿势或者该第二姿势对应于该发光用户输入设备的基准位置。
在第149方面中,根据第146-148方面中的任一项所述的可穿戴系统,其中,该光图案与光环相关联,并且其中,为了计算该第二运动数据,该硬件处理器被编程为计算该第一图像和该第二图像中的光环的形状的改变。
在第150方面中,根据第146-149方面中的任一项所述的可穿戴系统,其中,该发光用户输入设备包括图腾、智能电话、或智能手表。
在第151方面中,根据第150方面所述的可穿戴系统,其中,为了校准该发光用户输入设备,该硬件处理器被编程为校准该图腾的惯性测量单元(IMU)。
在第152方面中,根据第150或151方面所述的可穿戴系统,其中,该光图案向该发光用户输入设备的用户提供指示以将该发光用户输入设备从该第一姿势移动到该第二姿势。
在第153方面中,根据第146-152方面中的任一项所述的可穿戴系统,其中,该硬件处理器被编程为应用计算机视觉算法来分析该第一图像和该第二图像。
在第154方面中,根据第146-153方面中的任一项所述的可穿戴系统,其中,该面向外的成像系统是被配置为向用户呈现虚拟内容的可穿戴设备的一部分。
在第155方面中,根据第146-154方面中的任一项所述的可穿戴系统,其中,响应于确定该发光用户输入设备的校准已经完成,该发光用户输入设备可照亮另一光图案。
在第156方面中,一种用于校准发光用户输入设备的可穿戴系统,该可穿戴系统包括:面向外的成像系统,其被配置为对环境成像;硬件处理器,其被编程为:接收该环境的图像;分析该图像以识别发光用户输入设备;确定该发光用户输入设备的第一位置和照亮的光环的第一光图案;至少部分地基于该图像的分析来识别该照亮的光环的的第二光图案;确定该发光用户输入设备的位置和取向的第一改变;接收由该发光用户输入设备的环境传感器所测量的该发光用户输入设备的运动数据;计算该发光用户输入设备的位置和取向的第二改变;计算该第一改变与该第二改变之间的差以确定该差是否超过阈值;以及响应于确定该差超过该阈值条件,校准该发光用户输入设备的环境传感器。
在第157方面中,根据第156方面所述的可穿戴系统,其中,该发光用户输入设备包括以下各项中的至少一项:图腾、智能手表、或智能电话,并且其中,该环境传感器包括IMU。
在第158方面中,根据第156或157方面所述的可穿戴系统,其中,响应于确定该差不超过该阈值,该硬件处理器被编程为提供该环境传感器被校准的指示。
在第159方面中,根据第158方面所述的可穿戴系统,其中,该指示包括该发光用户输入设备上的视觉或触觉反馈。
在第160方面中,根据第156-159方面中的任一项所述的可穿戴系统,其中,该第一位置是该发光用户输入设备的基准位置。
在第161方面中,一种用于校准发光用户输入设备的可穿戴系统,该可穿戴系统包括:发光用户输入设备,其包括:传感器,其被配置为获取该发光设备的运动数据;发光部分,其被配置为输出光图案;以及硬件处理器,其被编程为:提供将该发光用户输入设备定位到一姿势的第一指示;获取与该姿势相关联的发光用户输入设备的运动数据;以及基于该运动数据来校准该发光用户输入设备。
在第162方面中,根据第161方面所述的可穿戴系统,其中,该硬件处理器还被编程为:响应于确定该发光用户输入设备被校准,提供通知该发光用户输入设备被校准的第二指示;或响应于确定响应于确定该发光用户输入设备未校准,继续校准该发光用户输入设备。
在第163方面中,根据第161或162方面所述的可穿戴系统,其中,该第一或者该第二指示包括以下各项中的至少一项:视觉、听觉、或触觉反馈。
在第164方面中,一种可穿戴设备,包括:面向外的成像系统,其被配置为对环境成像;以及硬件处理器,其被编程为:识别被配置为照亮光图案的发光用户输入设备;建立该可穿戴设备与该发光用户输入设备之间的无线连接;接收该发光用户输入设备的图像,其中,该图像包括编码与该发光用户输入设备相关联的设备信息的照亮的光图案;分析该照亮的光图案的图像以提取与该发光用户输入设备相关联的设备信息;以及将该发光用户输入设备与可穿戴设备配对。
在第165方面中,根据第164方面所述的可穿戴设备,其中,该硬件处理器还被配置为:确定该发光用户输入设备与该可穿戴设备之间的配对是否成功;以及响应于确定该配对成功,指令该发光用户输入设备照亮指示成功配对的另一光图案。
在第166方面中,根据第164或165方面所述的可穿戴设备,其中,该无线连接包括蓝牙连接。
在第167方面中,根据第164-166中的任一项所述的可穿戴设备,其中,该发光用户输入设备包括被配置为输出该光图案的LED,其中,相应LED的照亮以二进制形式表示该设备信息。
在第168方面中,一种发光用户输入设备,包括:多个发光二极管(LED),其被配置为输出光图案;硬件处理器,其被编程为:发起与可穿戴设备的配对过程;照亮编码用于该配对过程的信息的第一光图案;接收来自该可穿戴设备的关于该配对过程的响应;以及响应于确定该计算设备成功配对,照亮指示该配对成功的第二光图案。
在第169方面中,根据第168方面所述的发光用户输入设备,其中,该第一光图案编码以下各项中的至少一项:与该用户输入设备相关联的设备信息或者使得另一计算设备发起配对过程的触发器消息。
在第170方面中,根据第168或169所述的发光用户输入设备,其中,来自该可穿戴设备的该响应包括用于该发光用户输入设备的更多信息的请求,并且该硬件处理器被编程为照亮第三光图案,该第三光图案编码对该请求的应答的应答消息。
在第171方面中,一种手持式用户输入设备,包括:发光部分,其被配置为输出光图案;以及硬件处理器,其被编程为:确定该手持式用户输入设备的状态;访问与该状态相关联的第一光图案;指令发光部分根据该第一光图案显示光环;确定该手持式用户输入设备的状态的更新;以及响应于该更新,指令该发光部分根据第二光图案显示该光环。
在第172方面中,根据第171方面所述的手持式用户输入设备,其中,该手持式用户输入设备还包括电池,并且其中,该状态包括以下各项中的至少一项:电池状态、电源充电状态、该手持式用户输入设备与另一计算设备之间的无线配对状态、或该手持式用户输入设备是否空闲。
在第173方面中,根据第171或172方面所述的手持式用户输入设备,其中,该发光部分包括光导和发光二极管(LED)的环。
在第174方面中,一种用于提供可穿戴系统的部件的状态的可穿戴系统,该可穿戴系统包括:手持式用户输入设备,其包括被配置为输出光图案的发光部分;可穿戴设备,其包括可穿戴显示器和电池组;以及硬件处理器,其被编程为:确定该可穿戴设备的状态;访问与该状态相关联的第一光图案;指令该手持式用户输入设备的发光部分根据该第一光图案显示光环;确定该可穿戴设备的状态的更新;以及响应于该更新,指令该手持式用户输入设备的发光部分根据第二光图案显示该光环。
在第175方面中,根据第174方面所述的可穿戴系统,其中,该状态包括以下各项中的至少一项:电池状态、电源充电状态、该可穿戴设备与该手持式用户输入设备之间的无线配对状态、或该可穿戴显示器的状态。
在第176方面中,一种手持式用户输入设备,包括:触摸板,其被配置为接受用户输入;发光部分,其被配置为输出光图案,该发光部分至少部分地围绕该触摸板;以及硬件处理器,其被编程为:基于上下文信息来识别与该触摸板相关联的可用用户接口操作;确定与该可用用户接口操作相关联的光图案;生成并向该发光部分传送指令以根据该光图案显示光环;接收该触摸板上的用户输入;以及更新该光图案的放置或者运动以反映该用户输入。
在第177方面中,根据第176方面所述的手持式用户输入设备,其中,该上下文信息包括以下各项中的至少一项:该手持式用户输入设备的环境、与该手持式用户输入设备相关联的可用输入、与该手持式用户输入设备被配置为交互的对象相关联的信息、或者与该手持式用户输入设备配对的可穿戴设备的特征。
在第178方面中,根据第176或177方面所述的手持式用户输入设备,其中,该发光部分包括光导和LED的环。
在第179方面中,根据第176-178方面中的任一项所述的手持式用户输入设备,其中,该发光部分被配置为接受用户输入,并且其中,该硬件处理器还被编程为至少部分地基于与该光导相关联的用户输入来显示该光环。
在第180方面中,根据第176-179方面中的任一项所述的手持式用户输入设备,其中,该用户输入包括以下各项中的至少一项:滑动、轻叩、按压、或触摸,并且其中,该用户输入设备包括以下各项中的至少一项:图腾、智能手表、或智能电话。
在第181方面中,根据第176-180方面中的任一项所述的手持式用户输入设备,其中,该硬件处理器还被配置为:确定接收到的用户输入是否不恰当;响应于确定该用户输入不恰当,更新该光图案以反映该用户输入不恰当。
在第182方面中,根据第176-181方面中的任一项所述的手持式用户输入设备,其中,为了更新该光图案的放置或者运动以反映该用户输入,该处理器被编程为更新该光图案的颜色、更新该光图案的形状、更新该光图案的尺寸或者长度、或者更新该光图案的视觉效果。
在第183方面中,一种手持式用户输入设备,包括:发光部分,其被配置为输出光图案,该发光部分至少部分地围绕该触摸板;多个可交互区域,其被配置为接收用户输入;以及硬件处理器,其被编程为:检测该多个可交互区域中的可交互区域内的用户输入;访问与该可交互区域内检测到的用户输入相关联的光图案;以及指令该发光部分呈现包括该光图案的光环。
在第184方面中,根据第183方面所述的手持式用户输入设备,其中,该手持式用户输入设备还包括触摸表面,并且该发光部分还包括光导,并且其中,该多个可交互区域包括与该光导相关联的第一可交互区域以及与该触摸表面相关联的第二可交互区域。
在第185方面中,根据第184方面所述的手持式用户输入设备,其中,响应于检测到该用户输入在该第一可交互区域内,该硬件处理器被编程为访问与该第一可交互区域内的用户输入相关联的光图案的第一放置或者运动,并且其中,响应于检测到该用户输入在该第二可交互区域内,该硬件处理器被编程为访问与该第二可交互区域内的用户输入相关联的光图案的第二放置或者运动。
在第186方面中,根据第183-185方面中的任一项所述的手持式用户输入设备,其中,该光图案至少部分地基于与该手持式用户输入设备相关联的上下文信息来确定。
在第187方面中,根据第183-186方面中的任一项所述的手持式用户输入设备,其中,该用户输入包括以下各项中的至少一项:滑动、轻叩、按压、或触摸。
在第188方面中,根据第183-187方面中的任一项所述的手持式用户输入设备,其中,该光环包括具有颜色、弧形长度、或视觉效果的弧形区域。
在第189方面中,根据第183-188方面中的任一项所述的手持式用户输入设备,其中,该硬件处理器还被编程为检测该多个可交互区域中的可交互区域内的附加用户输入,并且响应于附加用户输入的检测,更新该光环。
在第190方面中,一种手持式用户输入设备,包括:发光部分,其被配置为输出光图案;以及硬件处理器,其被编程为:识别用户的环境中的对象;访问与该对象相关联的上下文信息;至少部分地基于该上下文信息来确定光图案的放置或者运动;以及指令该发光部分根据该光图案来照亮。
在第191方面中,根据第190方面所述的手持式用户输入设备,其中,该对象包括以下各项中的至少一项:物理对象或虚拟对象。
在第192方面中,根据第190或191方面所述的手持式用户输入设备,其中,该光图案的放置或者运动包括以下各项中的至少一项:光环的亮度、位置、形状、或尺寸、颜色。
在第193方面中,根据第190-192方面中的任一项所述的手持式用户输入设备,其中,与该对象相关联的上下文信息包括以下各项中的至少一项:该对象的位置、该对象的紧迫性、该对象的类型、该对象的特性、与该对象相关联的大量信息、或该用户的偏好。
在第194方面中,一种用于提供可穿戴系统的部件的状态的可穿戴系统,该可穿戴系统包括:手持式用户输入设备,其包括被配置为输出光图案的发光部分;可穿戴设备,其被配置为向用户呈现虚拟内容;以及硬件处理器,其被编程为:识别该用户的环境中的对象;访问与该对象相关联的上下文信息;至少部分地基于该上下文信息来确定光图案的放置或者运动;以及指令该手持式用户输入设备的该发光部分根据该光图案来照亮。
在第195方面中,根据第194方面所述的可穿戴系统,其中,该上下文信息至少部分地基于由该可穿戴设备或者该手持式用户输入设备的环境传感器获取的数据来确定。
在第196方面中,根据第190-193方面中的任一项所述的手持式用户输入设备或根据第194-195方面中的任一项该的可穿戴系统,其中,该光图案包括颜色、形状、尺寸或长度、或视觉效果。
在第197方面中,一种手持式用户输入设备,包括:发光部分,其被配置为输出光图案;以及硬件处理器,其被编程为:识别用户的环境中的虚拟对象;确定该虚拟对象的状态;至少部分地基于该虚拟对象的状态来确定光图案的放置或者运动;以及指令该发光部分根据指示该状态的光图案来照亮。
在第198方面中,根据第197方面所述的手持式用户输入设备,其中,该硬件处理器还被编程为生成指示该虚拟对象的状态的警报,并且其中,该警报被编码在该光图案中。
在第199方面中,根据第197或198方面所述的手持式用户输入设备,其中,该虚拟对象的状态包括以下各项中的至少一项:由该用户与该虚拟对象的当前交互、该虚拟对象是否已经接收新信息、该虚拟对象是否空闲、或该虚拟对象是否处于错误状态。
在第200方面中,一种用于提供可穿戴系统的部件的状态的可穿戴系统,该可穿戴系统包括:手持式用户输入设备,其包括被配置为输出光图案的发光部分;硬件处理器,其被编程为:识别用户的环境中的虚拟对象;确定该虚拟对象的状态;至少部分地基于该虚拟对象的状态来确定光图案的放置或者运动;以及指令该发光部分根据指示该状态的光图案来照亮。
在第201方面中,一种用于配置手持式用户输入设备的光图案的放置或者运动的系统,该系统包括:编程用户接口,其被配置为:接收与手持式用户输入设备上的光图案的放置或者运动相关联的输入,其中,该手持式用户输入设备包括被配置为输出该光图案的发光部分;在该手持式用户输入设备的视觉表示上提供光图案的放置或运动的可视化;以及更新与该手持式用户输入设备相关联的指令以反映该光图案的放置或者运动。
在第202方面中,根据第201方面所述的系统,其中,该光图案与颜色、长度、形状、视觉效果、或相对于该发光部分的位置相关联。
在第203方面中,根据第202方面所述的系统,其中,该视觉效果包括淡入、淡出、闪耀、闪光、旋转、颜色的改变、形状的改变、长度的改变、或相对于该发光部分的位置的改变。
在第204方面中,根据第201-203方面中的任一项所述的系统,其中,该编程用户接口还被配置为显示可视化标签、源代码标签、或图案调节工具。
在第205方面中,一种头戴式显示系统,包括:手持式用户输入设备,其包括被配置为接受用户输入的触摸板,以及被配置为输出来自多个光图案的第一光图案的发光部分,该发光部分至少部分地围绕该触摸板;以及头戴式显示器,其被配置为将虚拟图像呈现给该头戴式显示系统的用户。
在第206方面中,根据第205方面所述的头戴式显示系统,其中,该头戴式显示器包括光场显示器或被配置为呈现多个深度平面处的虚拟图像的显示器。
在第207方面中,根据第205或206方面所述的头戴式显示系统,其中,该手持式用户输入设备被配置为响应于以下各项中的一项或多项将该第一光图案改变为来自该多个光图案的第二光图案:(1)经由该触摸板接收的用户输入,(2)从该发光部分的触敏部分接收的用户输入,(3)上下文信息,或(4)来自该头戴式显示器的通信。
参考第146-207方面所描述的发光部分可以单独或组合地包括光导、LED、或利于光图案的照亮的用户输入设备的其他部件。虽然第1-128方面使用短语发光组件,但是这些方面也可以替代地表述为发光部分。
附加考虑
在本文中描述和/或在附图中描绘的过程、方法和算法中的每一者可以在由一个或多个物理计算系统、硬件计算机处理器、专用电路、和/或被配置为执行特定和特别计算机指令的电子硬件执行的代码模块中体现或通过其完全或部分自动化。例如,计算系统可以包括编程有特定计算机指令的通用计算机(例如,服务器)或者专用计算机、专用电路等。代码模块可以编译并且链接到可执行程序、安装在动态链接库中,或者可以以解释性编程语言书写。在一些实施方式中,可以通过特定于给定功能的电路执行特定操作和方法。
进一步地,本公开的功能的某些实施方式数学上、计算上、技术上足够复杂,以致于专用硬件或一个或多个物理计算设备(利用适当的专用可执行指令)可能对于执行例如归因于涉及的计算的容量或复杂性的功能或者对于基本上实时提供结果是必要的。例如,视频可能包括许多帧,其中,每一帧具有数百万像素,并且特别编程的计算机硬件对于处理视频数据以在商业上合理的时间量内提供期望的图像处理任务或者应用是必要的。
代码模块或任何类型的数据可以存储在任何类型的非暂态计算机可读介质上,诸如包括硬盘驱动器的物理计算机存储装置、固态存储器、随机存取存储器(RAM)、只读存储器(ROM)、光盘、易失或非易失性存储装置、相同和/或类似物的组合。方法和模块(或者数据)还可以传送作为各种计算机可读传输介质(包括基于无线和基于有线/电缆的介质)上的所生成的数据信号(例如,作为载波或其他模拟或数字传播信号的一部分),并且可以采取各种形式(例如,作为单个或复用模拟信号的一部分,或者作为多个分立数字包或帧)。所公开的过程或者过程步骤的结果可以永久地或另外以任何类型的非暂态存储在有形计算机存储装置中或者可以经由计算机可读传输介质通信。
在本文中描述和/或在附图中描绘的流程图中的任何过程、框、状态、步骤或功能应当被理解为潜在地表示代码模块、段或代码的部分,其包括用于实现过程中的特定功能(例如,逻辑或者算术)或步骤的一个或多个可执行指令的代码。各种过程、框、状态、步骤或功能可以从本文所提供的说明性示例组合、重排、添加、删除、修改、或以其他方式改变。在一些实施例中,附加或者不同计算系统或者代码模块可以执行本文所描述的功能中的一些或全部。本文中所描述的方法和过程也不限于任何特定顺序,并且与其有关的框、步骤或状态可以以合适的其他顺序(例如,串行、并行、或以某种其他方式)执行。任务或者事件可以添加到所公开的示例实施例或者从所公开的示例实施例移除。而且,本文所描述的实施方式中的各种系统部件的分离是出于说明性目的并且不应当被理解为要求所有实施方式中的这样的分离。应当理解,所描述的程序组件、方法和系统可以通常一起集成在单个计算机产品中或者封装到多个计算机产品中。许多实施方式变型是可能的。
过程、方法和系统可以在网络(或者分布式)计算环境中实现。网络环境包括企业范围计算机网络、内联网、局域网(LAN)、广域网(WAN)、个域网(PAN)、云计算网络、众包计算网络、因特网和万维网。网络可以是有线或无线网络或任何其他类型的通信网络。
本公开的系统和方法各自具有数个创新方面,其中没有单独一个仅负责或者要求本文所公开的期望的属性。上文所描述的各种特征和过程可以彼此独立使用,或者可以以各种方式组合。所有可能的组合和子组合旨在落在本公开的范围内。对于本公开中所描述的实施方式的各种修改可以对于本领域的技术人员是容易明显的,并且本文中定义的一般原理可以适用于其他实施方式而不脱离本公开的精神或范围。因此,权利要求不旨在限于本文中示出的实施方式,而是将符合与本文所公开的本公开、原理和新颖特征一致的最宽范围。
在分离的实施方式的上下文中的该说明书中所描述的某些特征也可以组合实现在单个实施方式中。相反地,在单个实施方式的上下文中所描述的各种特征还可以单独地或者以任何适合的子组合被实现在多个实施方式中。而且,尽管上面可以将特征描述为在某些组合中作用并且甚至如此初始地要求保护,但是在一些情况下,可以从组合排除来自所要求保护的组合的一个或多个特征,并且所要求保护的组合可以涉及子组合或子组合的变型。没有单个特征或特征组对于每一个实施例是必要或不可缺少的。
除非另外特别说明或者否则如所使用的在上下文内理解,本文所使用的条件语言,诸如除其他之外,“可以/可能(can)”、“可以/可能(could)”、“可以/可能(might)”、“可以/可能(may)”、“例如(e.g.)”等)通常旨在表达某些实施例包括而其他实施例不包括某些特征、元件和/或步骤。因此,这样的条件语言通常不旨在暗含特征、元件和/或步骤对于一个或多个实施例以任何方式所要求或者一个或多个实施例必需包括用于在有或没有作者输入或者提示的情况下决定这些特征、元件和/或步骤是否包括在任何特定实施例中或者将在任何特定实施例中执行的逻辑。术语“包括(comprising)”、“包括(including)”、“具有(having)”等是同义的并且以开放式方式包括使用,并且不排除附加元件、特征、动作、操作等。而且,术语“或者(or)”以其包括的意义(而非以其排外的意义)使用,使得当例如用于连接元件的列表时,术语“或者(or)”意指列表中的元件中的一个、一些或全部。另外,除非另外指出,否则如在本申请中和随附的权利要求中使用的冠词“一(a)”、“一(an)”和“该(the)”将被理解为意指“一个或多个”或者“至少一个”。
如本文所使用的,涉及条目列表中的“至少一者”的短语是指这些条目的任意组合,包括单个成员。作为示例,“A、B或C中的至少一者”旨在涵盖:A;B;C;A和B、A和C、B和C;以及A、B和C。除非另外特别说明,否则诸如短语“X、Y和Z中的至少一者”的连接语言通过通常使用的上下文进行理解,以表达条目、术语等可以是X、Y或Z中的至少一者。因此,这种连接语言通常不旨在暗含某些实施例需要X中的至少一个、Y中的至少一个和Z中的至少一个各自存在。
类似地,虽然操作可以以特定次序在附图中描绘,但是将认识到,这样的操作不需要以所示的特定次序或者以顺序次序执行,或者全部所图示的操作被执行,以实现期望的结果。而且,附图可以示意性地以流程图的形式描绘一个或多个示例过程。然而,未描绘的其他操作可以包含在示意性地示出的示例方法和过程中。例如,一个或多个附加操作可以在任何所示出的操作之前、之后、同时或者之间执行。此外,在其他实施方式中,操作可以重新布置或者重新排序。在某些情况下,多任务和并行处理可能有利。而且,上文所描述的实施方式中的各种系统部件的分离不应该被理解为要求所有实施方式中的这样的分离,并且应该理解的是,所描述的程序部件和系统通常可以一起集成在单个软件产品或者封装到多个软件产品中。此外,其它实施方式在以下权利要求的范围内。在一些情况下,权利要求中所记载的动作可以以不同的次序执行并且仍然实现期望的结果。
Claims (19)
1.一种增强现实系统,包括:
可穿戴显示设备,其被配置为放置在用户的眼睛的前面,所述可穿戴显示设备被配置为描绘包括一个或多个虚拟对象的虚拟环境;
用户输入设备,其包括:
触摸部件,其被配置为接受用户输入;
发光组件,其被配置为输出多个光图案,所述发光组件至少部分地围绕所述触摸部件;以及
硬件处理器,其被通信地耦接到所述触摸部件和所述发光组件,并且被编程为:
从所述可穿戴显示设备接收上下文信息,所述上下文信息指示所述用户与其交互的一个或多个虚拟对象中的至少第一虚拟对象;
访问指示与相应上下文信息相关联的用户接口选项的信息;
至少部分地基于所访问的信息中指示的与和所述第一虚拟对象的交互相关联的用户接口选项,来识别由所述触摸部件支持的用户接口操作;
确定与所述用户接口操作相关联的第一光图案;
生成并向所述发光组件传送指令以显示所述第一光图案;
接收所述触摸部件上的用户输入;以及
生成并向所述发光组件传送指令以显示指示所述用户输入的第二光图案。
2.根据权利要求1所述的增强现实系统,其中,所述上下文信息还包括描述以下各项中的至少一项的信息:
所述用户输入设备的环境,
由所述用户输入设备支持的输入的类型,或
所述可穿戴显示设备的特征。
3.根据权利要求1所述的增强现实系统,其中,所述发光组件包括光导和LED的环。
4.根据权利要求3所述的增强现实系统,其中,所述发光组件被配置为接受多个用户输入,并且其中,所述硬件处理器还被编程为通过致动所述光导至少部分地基于支持的所述多个用户输入来显示所述第一光图案。
5.根据权利要求1所述的增强现实系统,其中,所述用户输入包括以下各项中的至少一项:滑动、轻叩、按压、或触摸手势。
6.根据权利要求1所述的增强现实系统,其中,所述用户输入设备包括以下各项中的至少一项:图腾、智能手表、或智能电话。
7.根据权利要求1所述的增强现实系统,其中,所述第一光图案向所述用户提供所述用户接口操作由所述用户输入设备支持的线索。
8.根据权利要求1所述的增强现实系统,其中,所述硬件处理器还被编程为:
基于所述上下文信息,确定所接收到的用户输入是否不恰当;以及
其中,响应于确定所接收到的用户输入不恰当,所述第二光图案提供所接收到的用户输入不恰当的视觉警报。
9.根据权利要求1所述的增强现实系统,其中,与所述第一光图案相比较,所述第一光图案的至少一部分看起来在所述第二光图案中更亮或更大。
10.根据权利要求1所述的增强现实系统,其中,所述多个光图案的特征可由用户经由应用编程接口配置。
11.根据权利要求10所述的增强现实系统,其中,所述特征包括以下各项中的至少一项:弧的放置或者运动图案、颜色、亮度、形状、或尺寸。
12.根据权利要求1所述的增强现实系统,其中,响应于所述用户输入,所述第二光图案指示以下各项中的至少一项:电池状态、电源充电状态、所述用户输入设备与另一计算设备之间的无线配对状态、或所述用户输入设备是否空闲。
13.一种方法,包括:
在硬件处理器的控制下:
通过用户输入设备从与所述用户输入设备通信地耦接的可穿戴显示设备接收上下文信息,所述上下文信息指示通过所述可穿戴显示设备呈现的多个虚拟对象中的至少第一虚拟对象;
访问指示与相应上下文信息相关联的用户接口选项的信息;
至少部分地基于所访问的信息中指示的与和所述第一虚拟对象的交互相关联的用户接口选项,来识别由所述用户输入设备支持的用户输入类型,其中,所述用户输入设备包括用于照亮多个光图案的第一元件和用于接收用户输入的第二元件;
确定与支持的所述用户输入类型相关联的第一光图案;
生成并向所述第一元件传送指令以照亮具有所述第一光图案的光环;
基于所述用户输入设备上的用户输入来确定第二光图案;以及
响应于所述用户输入,生成并向所述第一元件传送指令以将所述光环更新到所述第二光图案。
14.根据权利要求13所述的方法,其中,所述第一元件还被配置为接收另一用户输入,并且其中,用于确定所述第一光图案的所述用户输入类型与由所述第一元件支持的其他用户输入相关联。
15.根据权利要求13所述的方法,其中,所述上下文信息还包括描述以下各项中的至少一项的信息:
所述用户输入设备的环境,
由所述用户输入设备支持的输入的类型,
与所述用户输入设备被配置为交互的对象相关联的信息,或
与所述用户输入设备相关联的可穿戴设备的特征。
16.根据权利要求13所述的方法,其中,所述用户输入类型包括以下各项中的至少一项:滑动、轻叩、按压、或触摸输入。
17.根据权利要求13所述的方法,其中,所述第一光图案向用户提供所述用户输入类型由所述用户输入设备支持的线索。
18.根据权利要求13所述的方法,进一步包括:
基于所述上下文信息,确定由所述用户输入设备接收到的用户输入是否不恰当;以及
其中,响应于确定所述用户输入不恰当,所述第二光图案提供所述用户输入不恰当的视觉警报。
19.根据权利要求13所述的方法,其中,与所述第一光图案相比较,所述光环的至少一部分看起来在所述第二光图案中更亮或更大。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311184679.XA CN117311494A (zh) | 2017-04-27 | 2018-04-27 | 发光用户输入设备 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762490863P | 2017-04-27 | 2017-04-27 | |
US62/490,863 | 2017-04-27 | ||
PCT/US2018/029988 WO2018201067A1 (en) | 2017-04-27 | 2018-04-27 | Light-emitting user input device |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311184679.XA Division CN117311494A (zh) | 2017-04-27 | 2018-04-27 | 发光用户输入设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110832439A CN110832439A (zh) | 2020-02-21 |
CN110832439B true CN110832439B (zh) | 2023-09-29 |
Family
ID=63916641
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201880042586.4A Active CN110832439B (zh) | 2017-04-27 | 2018-04-27 | 发光用户输入设备 |
CN202311184679.XA Pending CN117311494A (zh) | 2017-04-27 | 2018-04-27 | 发光用户输入设备 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311184679.XA Pending CN117311494A (zh) | 2017-04-27 | 2018-04-27 | 发光用户输入设备 |
Country Status (9)
Country | Link |
---|---|
US (5) | US11163416B2 (zh) |
EP (3) | EP3616040B1 (zh) |
JP (4) | JP7231556B2 (zh) |
KR (1) | KR102472428B1 (zh) |
CN (2) | CN110832439B (zh) |
AU (1) | AU2018258679B2 (zh) |
CA (1) | CA3059209A1 (zh) |
IL (2) | IL270146B2 (zh) |
WO (1) | WO2018201067A1 (zh) |
Families Citing this family (76)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
USD831652S1 (en) * | 2015-08-20 | 2018-10-23 | Brunswick Corporation | Animated responsive display on a joystick |
WO2017093996A1 (en) * | 2015-12-02 | 2017-06-08 | Hisep Technology Ltd. | Directionally awareness of wireless sensor nodes |
CN117198277A (zh) | 2016-08-12 | 2023-12-08 | 奇跃公司 | 单词流注释 |
US10496216B2 (en) | 2016-11-09 | 2019-12-03 | Dell Products L.P. | Information handling system capacitive touch totem with optical communication support |
US11163416B2 (en) | 2017-04-27 | 2021-11-02 | Magic Leap, Inc. | Light-emitting user input device for calibration or pairing |
US10621751B2 (en) * | 2017-06-16 | 2020-04-14 | Seiko Epson Corporation | Information processing device and computer program |
US10365710B2 (en) * | 2017-06-23 | 2019-07-30 | Seiko Epson Corporation | Head-mounted display device configured to display a visual element at a location derived from sensor data and perform calibration |
US10782793B2 (en) * | 2017-08-10 | 2020-09-22 | Google Llc | Context-sensitive hand interaction |
US10976811B2 (en) * | 2017-08-11 | 2021-04-13 | Microsoft Technology Licensing, Llc | Eye-tracking with MEMS scanning and reflected light |
US10970425B2 (en) | 2017-12-26 | 2021-04-06 | Seiko Epson Corporation | Object detection and tracking |
US10459528B2 (en) | 2018-02-28 | 2019-10-29 | Dell Products L.P. | Information handling system enhanced gesture management, control and detection |
EP4212222A1 (en) | 2018-03-07 | 2023-07-19 | Magic Leap, Inc. | Visual tracking of peripheral devices |
US11042226B2 (en) * | 2018-04-02 | 2021-06-22 | Microsoft Technology Licensing, Llc | Constellation-based augmentation of mouse form-factor for virtual reality applications |
US10318811B1 (en) * | 2018-04-22 | 2019-06-11 | Bubbler International Llc | Methods and systems for detecting objects by non-visible radio frequencies and displaying associated augmented reality effects |
US10866634B2 (en) | 2018-06-19 | 2020-12-15 | Sony Interactive Entertainment Inc. | Eye tracking system with holographic film decoder |
US10795502B2 (en) | 2018-06-28 | 2020-10-06 | Dell Products L.P. | Information handling system touch device with adaptive haptic response |
US10852853B2 (en) | 2018-06-28 | 2020-12-01 | Dell Products L.P. | Information handling system touch device with visually interactive region |
US10817077B2 (en) | 2018-06-28 | 2020-10-27 | Dell Products, L.P. | Information handling system touch device context aware input tracking |
US10664101B2 (en) | 2018-06-28 | 2020-05-26 | Dell Products L.P. | Information handling system touch device false touch detection and mitigation |
US10761618B2 (en) * | 2018-06-28 | 2020-09-01 | Dell Products L.P. | Information handling system touch device with automatically orienting visual display |
US10635199B2 (en) | 2018-06-28 | 2020-04-28 | Dell Products L.P. | Information handling system dynamic friction touch device for touchscreen interactions |
USD918176S1 (en) | 2018-07-24 | 2021-05-04 | Magic Leap, Inc. | Totem controller having an illumination region |
USD930614S1 (en) | 2018-07-24 | 2021-09-14 | Magic Leap, Inc. | Totem controller having an illumination region |
USD924204S1 (en) | 2018-07-24 | 2021-07-06 | Magic Leap, Inc. | Totem controller having an illumination region |
WO2020028826A1 (en) | 2018-08-02 | 2020-02-06 | Firefly Dimension, Inc. | System and method for human interaction with virtual objects |
US11287526B2 (en) * | 2018-11-21 | 2022-03-29 | Microsoft Technology Licensing, Llc | Locating spatialized sounds nodes for echolocation using unsupervised machine learning |
WO2020116529A1 (ja) * | 2018-12-07 | 2020-06-11 | 株式会社ソニー・インタラクティブエンタテインメント | 発光制御装置、操作デバイス、発光制御方法及びプログラム |
CN113164813A (zh) * | 2018-12-07 | 2021-07-23 | 索尼互动娱乐股份有限公司 | 输入设备 |
US11107390B2 (en) * | 2018-12-21 | 2021-08-31 | Johnson Controls Technology Company | Display device with halo |
CN112809709B (zh) * | 2019-01-25 | 2022-12-02 | 北京妙趣伙伴科技有限公司 | 机器人及其操作系统、控制装置、控制方法及存储介质 |
TWI725574B (zh) * | 2019-02-22 | 2021-04-21 | 宏達國際電子股份有限公司 | 頭戴式顯示裝置以及眼球追蹤游標的顯示方法 |
US10838486B2 (en) * | 2019-02-28 | 2020-11-17 | Microsoft Technology Licensing, Llc | Virtual reality controller |
USD914722S1 (en) * | 2019-04-25 | 2021-03-30 | Samsung Electronics Co., Ltd. | Display screen or portion thereof with graphical user interface |
US11210932B2 (en) * | 2019-05-21 | 2021-12-28 | Apple Inc. | Discovery of and connection to remote devices |
US11086398B2 (en) * | 2019-06-07 | 2021-08-10 | Microsoft Technology Licensing, Llc | Haptic rendering |
GB2584721B (en) * | 2019-06-13 | 2023-05-10 | Yoto Ltd | An interactive apparatus |
KR102570009B1 (ko) * | 2019-07-31 | 2023-08-23 | 삼성전자주식회사 | Ar 객체 생성 방법 및 전자 장치 |
US10931002B1 (en) | 2019-09-23 | 2021-02-23 | Disney Enterprises, Inc. | Light transmitting wearable device with transparent and translucent components |
US11861802B2 (en) | 2019-11-11 | 2024-01-02 | Spin Master Ltd. | Augmented reality system |
WO2021108327A1 (en) * | 2019-11-26 | 2021-06-03 | Magic Leap, Inc. | Enhanced eye tracking for augmented or virtual reality display systems |
JP2021086586A (ja) * | 2019-11-29 | 2021-06-03 | キヤノン株式会社 | 表示制御装置及びその制御方法 |
US11687778B2 (en) | 2020-01-06 | 2023-06-27 | The Research Foundation For The State University Of New York | Fakecatcher: detection of synthetic portrait videos using biological signals |
WO2021171915A1 (ja) * | 2020-02-28 | 2021-09-02 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | スマート窓装置、映像表示方法及びプログラム |
CN113384870B (zh) * | 2020-03-13 | 2023-11-03 | 致伸科技股份有限公司 | 摇杆模块 |
WO2022170223A1 (en) * | 2021-02-08 | 2022-08-11 | Multinarity Ltd | User interactions in extended reality |
US11573644B2 (en) * | 2020-04-21 | 2023-02-07 | Hyundai Mobis Co., Ltd. | Apparatus and method for recognizing gesture |
US11582409B2 (en) * | 2020-06-29 | 2023-02-14 | Snap Inc. | Visual-inertial tracking using rolling shutter cameras |
USD938988S1 (en) * | 2020-06-30 | 2021-12-21 | Spotify Ab | Display screen with graphical user interface |
CN111783660B (zh) * | 2020-07-01 | 2023-11-10 | 业成科技(成都)有限公司 | 眼动追踪装置及应用其的电子装置 |
JP7545564B2 (ja) | 2020-07-15 | 2024-09-04 | マジック リープ, インコーポレイテッド | 非球面角膜モデルを使用した眼追跡 |
EP4181993A4 (en) | 2020-07-16 | 2024-08-07 | Ventec Life Systems Inc | SYSTEM AND METHOD FOR CONCENTRATION OF GAS |
US11931689B2 (en) | 2020-07-16 | 2024-03-19 | Ventec Life Systems, Inc. | System and method for concentrating gas |
US11320896B2 (en) * | 2020-08-03 | 2022-05-03 | Facebook Technologies, Llc. | Systems and methods for object tracking using fused data |
US11520152B1 (en) * | 2020-08-06 | 2022-12-06 | Apple Inc. | Head-mounted display systems with gaze tracker alignment monitoring |
US11467403B2 (en) * | 2020-08-20 | 2022-10-11 | Htc Corporation | Operating method and electronic system |
WO2022086002A1 (en) * | 2020-10-20 | 2022-04-28 | Samsung Electronics Co., Ltd. | Waveguide structure with segmented diffractive optical elements and near-eye display apparatus employing the same |
WO2022093219A1 (en) * | 2020-10-28 | 2022-05-05 | Hewlett-Packard Development Company, L.P. | Virtual reality headset with physical object representation |
US11461991B2 (en) * | 2020-12-30 | 2022-10-04 | Imagine Technologies, Inc. | Method of developing a database of controllable objects in an environment |
EP4288950A1 (en) | 2021-02-08 | 2023-12-13 | Sightful Computers Ltd | User interactions in extended reality |
JP2024507749A (ja) | 2021-02-08 | 2024-02-21 | サイトフル コンピューターズ リミテッド | エクステンデッドリアリティにおけるコンテンツ共有 |
JP2024506630A (ja) | 2021-02-08 | 2024-02-14 | サイトフル コンピューターズ リミテッド | 生産性のためのエクステンデッド・リアリティ |
EP4059582A1 (en) * | 2021-03-16 | 2022-09-21 | UDU ApS | Mobile handheld gaming controller |
JP7311550B2 (ja) * | 2021-03-25 | 2023-07-19 | 株式会社ソニー・インタラクティブエンタテインメント | 入力デバイス |
US11838991B2 (en) * | 2021-05-26 | 2023-12-05 | Microsoft Technology Licensing, Llc | Peer-to-peer communication via smart wearables |
WO2023009580A2 (en) | 2021-07-28 | 2023-02-02 | Multinarity Ltd | Using an extended reality appliance for productivity |
US20230062244A1 (en) * | 2021-09-01 | 2023-03-02 | Qualcomm Incorporated | Extended reality control of smart devices |
CN114019031B (zh) * | 2021-09-13 | 2023-10-13 | 上海工程技术大学 | 力触觉系统主端操作机构及力触觉核电装备运维装置 |
JP2023042612A (ja) * | 2021-09-15 | 2023-03-28 | オムロン株式会社 | 遊技機用操作ボタンおよびこれを備えた遊技機用操作デッキ |
WO2023064342A1 (en) * | 2021-10-12 | 2023-04-20 | Tandem Diabetes Care, Inc. | Systems and method of pairing an infusion pump with a remote control device |
US11948263B1 (en) | 2023-03-14 | 2024-04-02 | Sightful Computers Ltd | Recording the complete physical and extended reality environments of a user |
US20230334795A1 (en) | 2022-01-25 | 2023-10-19 | Multinarity Ltd | Dual mode presentation of user interface elements |
US12026325B2 (en) | 2022-08-17 | 2024-07-02 | Apple Inc. | Handheld input devices with sleeves |
US12079442B2 (en) | 2022-09-30 | 2024-09-03 | Sightful Computers Ltd | Presenting extended reality content in different physical environments |
WO2024112911A1 (en) * | 2022-11-23 | 2024-05-30 | Meta Platforms Technologies, Llc | Arrangements of illumination sources within and outside of a digit-occluded region of a top cover of a handheld controller to assist with positional tracking of the controller by an artificial-reality system, and systems and methods of use thereof |
US20240233207A1 (en) * | 2023-01-05 | 2024-07-11 | Dell Products L.P. | Aggregated color palette generation based on user context and machine learning |
CN117440554B (zh) * | 2023-12-20 | 2024-04-02 | 深圳市正远科技有限公司 | 基于数字化实现led光源的场景建模方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5704151A (en) * | 1995-03-24 | 1998-01-06 | James Paul West | Portable battery-powered safety lock |
CN101194220A (zh) * | 2005-06-14 | 2008-06-04 | 麦孚斯公司 | 基于能够进行视觉输入反馈的触摸输入接口来控制数字设备的装置及其方法 |
CN105117016A (zh) * | 2015-09-07 | 2015-12-02 | 众景视界(北京)科技有限公司 | 用于虚拟现实和增强现实交互控制中的交互手柄 |
CN105975082A (zh) * | 2016-05-27 | 2016-09-28 | 北京小鸟看看科技有限公司 | 一种应用于虚拟现实头戴设备的手柄控制器 |
Family Cites Families (104)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6222525B1 (en) | 1992-03-05 | 2001-04-24 | Brad A. Armstrong | Image controllers with sheet connected sensors |
US5670988A (en) | 1995-09-05 | 1997-09-23 | Interlink Electronics, Inc. | Trigger operated electronic device |
USD432131S (en) | 1999-12-17 | 2000-10-17 | Microsoft Corporation | Track ball and glow ring for a computer input device |
WO2001056007A1 (en) * | 2000-01-28 | 2001-08-02 | Intersense, Inc. | Self-referenced tracking |
JP4292927B2 (ja) | 2003-09-16 | 2009-07-08 | カシオ計算機株式会社 | ペン型データ入力装置及び該プログラム |
USD514570S1 (en) | 2004-06-24 | 2006-02-07 | Microsoft Corporation | Region of a fingerprint scanning device with an illuminated ring |
US20060103633A1 (en) | 2004-11-17 | 2006-05-18 | Atrua Technologies, Inc. | Customizable touch input module for an electronic device |
US20060181521A1 (en) * | 2005-02-14 | 2006-08-17 | Atrua Technologies, Inc. | Systems for dynamically illuminating touch sensors |
US7548230B2 (en) * | 2005-05-27 | 2009-06-16 | Sony Computer Entertainment Inc. | Remote input device |
KR100811160B1 (ko) | 2005-06-02 | 2008-03-07 | 삼성전자주식회사 | 사용자명령을 3차원적으로 입력가능한 전자장치 |
USD567243S1 (en) | 2005-08-17 | 2008-04-22 | Nintendo Co., Ltd. | Controller for electronic game machine |
US20070081123A1 (en) | 2005-10-07 | 2007-04-12 | Lewis Scott W | Digital eyewear |
US8696113B2 (en) | 2005-10-07 | 2014-04-15 | Percept Technologies Inc. | Enhanced optical and perceptual digital eyewear |
US11428937B2 (en) | 2005-10-07 | 2022-08-30 | Percept Technologies | Enhanced optical and perceptual digital eyewear |
USD565668S1 (en) | 2005-12-15 | 2008-04-01 | Microsoft Corporation | Portion of a gaming input device having an illuminated region |
USD563480S1 (en) | 2005-12-15 | 2008-03-04 | Microsoft Corporation | Portion of a gaming input device having an illuminated region |
USD567287S1 (en) | 2006-03-28 | 2008-04-22 | Anand International | Pen |
DE102006037545B4 (de) * | 2006-08-10 | 2015-05-28 | Ferton Holding S.A. | Bedienelement und Verfahren zur Eingabe von Werten an einem medizinischen Gerät |
GB0711355D0 (en) | 2007-06-12 | 2007-07-25 | Saitek P L C | Video game controller |
US20090002218A1 (en) | 2007-06-28 | 2009-01-01 | Matsushita Electric Industrial Co., Ltd. | Direction and holding-style invariant, symmetric design, touch and button based remote user interaction device |
USD589515S1 (en) | 2007-10-17 | 2009-03-31 | Zeenote, Inc. | Wireless handheld controller |
USD611477S1 (en) | 2007-10-17 | 2010-03-09 | Zeemote, Inc. | Wireless handheld controller |
JP4626671B2 (ja) | 2008-04-24 | 2011-02-09 | ソニー株式会社 | 入力装置及び制御システム |
TWI360068B (en) | 2008-05-30 | 2012-03-11 | Asustek Comp Inc | Pointing device and method for determining rotatio |
JP2010015535A (ja) | 2008-06-02 | 2010-01-21 | Sony Corp | 入力装置、制御システム、ハンドヘルド装置及び校正方法 |
US20100019468A1 (en) * | 2008-06-21 | 2010-01-28 | Price L Jay | Apparatus, system and method for accessing the engine compartment of a vehicle |
USD587713S1 (en) | 2008-07-11 | 2009-03-03 | Sutton Sales Llc | Controller for electronic game machine |
USD594066S1 (en) | 2008-07-25 | 2009-06-09 | Sony Computer Entertainment Inc. | Hand held game controller |
US8138938B2 (en) | 2008-10-28 | 2012-03-20 | The Boeing Company | Hand-held positioning interface for spatial query |
JP5453006B2 (ja) | 2009-07-21 | 2014-03-26 | 株式会社ソニー・コンピュータエンタテインメント | ゲーム装置 |
CN102821821B (zh) | 2009-12-24 | 2015-03-11 | 索尼电脑娱乐公司 | 无线装置配对和分组方法 |
US8982063B2 (en) * | 2010-02-25 | 2015-03-17 | Blackberry Limited | Optical naviagation module having a metallic illumination ring |
USD638841S1 (en) | 2010-09-18 | 2011-05-31 | Ailive Inc. | Game controller |
US9304319B2 (en) | 2010-11-18 | 2016-04-05 | Microsoft Technology Licensing, Llc | Automatic focus improvement for augmented reality displays |
US10156722B2 (en) | 2010-12-24 | 2018-12-18 | Magic Leap, Inc. | Methods and systems for displaying stereoscopy with a freeform optical system with addressable focus for virtual and augmented reality |
CA2822978C (en) | 2010-12-24 | 2019-02-19 | Hong Hua | An ergonomic head mounted display device and optical system |
JP6316186B2 (ja) | 2011-05-06 | 2018-04-25 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 広範囲同時遠隔ディジタル提示世界 |
USD665461S1 (en) | 2011-06-07 | 2012-08-14 | Microsoft Corporation | Game controller |
USD658184S1 (en) | 2011-06-13 | 2012-04-24 | Hon Hai Precision Industry Co., Ltd. | Controlling handle |
US8179604B1 (en) | 2011-07-13 | 2012-05-15 | Google Inc. | Wearable marker for passive interaction |
US10795448B2 (en) | 2011-09-29 | 2020-10-06 | Magic Leap, Inc. | Tactile glove for human-computer interaction |
US20130104085A1 (en) | 2011-10-21 | 2013-04-25 | Digital Artforms, Inc. | Systems and methods for human-computer interaction using a two handed interface |
RU2017115669A (ru) | 2011-10-28 | 2019-01-28 | Мэджик Лип, Инк. | Система и способ для дополненной и виртуальной реальности |
KR102116697B1 (ko) | 2011-11-23 | 2020-05-29 | 매직 립, 인코포레이티드 | 3차원 가상 및 증강 현실 디스플레이 시스템 |
KR102028732B1 (ko) | 2012-04-05 | 2019-10-04 | 매직 립, 인코포레이티드 | 능동 포비에이션 능력을 갖는 와이드-fov(field of view) 이미지 디바이스들 |
USD698358S1 (en) | 2012-05-03 | 2014-01-28 | Apem, Inc. | Handheld controller |
US9671566B2 (en) | 2012-06-11 | 2017-06-06 | Magic Leap, Inc. | Planar waveguide apparatus with diffraction element(s) and system employing same |
US9310559B2 (en) | 2012-06-11 | 2016-04-12 | Magic Leap, Inc. | Multiple depth plane three-dimensional display using a wave guide reflector array projector |
USD675644S1 (en) | 2012-07-17 | 2013-02-05 | Nike, Inc. | Display screen with animated user interface |
AU2013315607A1 (en) | 2012-09-11 | 2015-04-02 | Magic Leap, Inc | Ergonomic head mounted display device and optical system |
US10444845B2 (en) * | 2012-12-21 | 2019-10-15 | Qualcomm Incorporated | Display of separate computer vision based pose and inertial sensor based pose |
IL293789B2 (en) | 2013-01-15 | 2023-08-01 | Magic Leap Inc | A system for scanning electromagnetic imaging radiation |
CN105188516B (zh) | 2013-03-11 | 2017-12-22 | 奇跃公司 | 用于增强和虚拟现实的系统与方法 |
KR102458124B1 (ko) | 2013-03-15 | 2022-10-21 | 매직 립, 인코포레이티드 | 디스플레이 시스템 및 방법 |
USD725040S1 (en) | 2013-03-15 | 2015-03-24 | Microsoft Corporation | Connector |
EP2797313A1 (en) * | 2013-04-26 | 2014-10-29 | Elvesjö, John | Computer graphics presentation system and method |
US9874749B2 (en) | 2013-11-27 | 2018-01-23 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
US10262462B2 (en) | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
EP3054693B1 (en) * | 2013-10-02 | 2019-12-25 | Samsung Electronics Co., Ltd | Image display apparatus and pointing method for same |
JP6200756B2 (ja) | 2013-10-02 | 2017-09-20 | 三星電子株式会社Samsung Electronics Co.,Ltd. | ポインティング装置、ポインティング方法、及び、ポインティング装置用プログラム |
IL302408B2 (en) | 2013-10-16 | 2024-09-01 | Magic Leap Inc | An augmented or virtual reality head device with intrapupillary distance adjustment |
USD749044S1 (en) | 2013-10-17 | 2016-02-09 | Microsoft Mobile Oy | Charger |
US9111076B2 (en) * | 2013-11-20 | 2015-08-18 | Lg Electronics Inc. | Mobile terminal and control method thereof |
CN110542938B (zh) | 2013-11-27 | 2023-04-18 | 奇跃公司 | 虚拟和增强现实系统与方法 |
US9857591B2 (en) | 2014-05-30 | 2018-01-02 | Magic Leap, Inc. | Methods and system for creating focal planes in virtual and augmented reality |
USD740369S1 (en) | 2013-12-26 | 2015-10-06 | Lg Electronics Inc. | Controller for electronic learning device |
US9524580B2 (en) | 2014-01-06 | 2016-12-20 | Oculus Vr, Llc | Calibration of virtual reality systems |
CN106461955B (zh) | 2014-01-31 | 2019-08-13 | 奇跃公司 | 显示增强现实的方法 |
CA2841371A1 (en) | 2014-01-31 | 2015-07-31 | Usquare Soft Inc. | Devices and methods for portable processing and application execution |
NZ722903A (en) | 2014-01-31 | 2020-05-29 | Magic Leap Inc | Multi-focal display system and method |
US10203762B2 (en) * | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
CN110308561A (zh) | 2014-03-14 | 2019-10-08 | 索尼互动娱乐股份有限公司 | 用于头戴式显示器(hmd)的方法和系统 |
US9495801B2 (en) * | 2014-05-01 | 2016-11-15 | Microsoft Technology Licensing, Llc | Pose tracking an augmented reality device |
WO2016018488A2 (en) | 2014-05-09 | 2016-02-04 | Eyefluence, Inc. | Systems and methods for discerning eye signals and continuous biometric identification |
USD759657S1 (en) | 2014-05-19 | 2016-06-21 | Microsoft Corporation | Connector with illumination region |
CN113253476B (zh) | 2014-05-30 | 2022-12-27 | 奇跃公司 | 采用虚拟或增强现实装置生成虚拟内容显示的方法和系统 |
USD752529S1 (en) | 2014-06-09 | 2016-03-29 | Comcast Cable Communications, Llc | Electronic housing with illuminated region |
USD755761S1 (en) | 2014-08-13 | 2016-05-10 | Comcast Cable Communications, Llc | Electronic housing with illuminated region |
USD769876S1 (en) | 2014-08-29 | 2016-10-25 | Apple Inc. | Component for electronic device |
US10444849B2 (en) | 2014-09-01 | 2019-10-15 | Yinbo Li | Multi-surface controller |
US10534447B2 (en) | 2014-09-01 | 2020-01-14 | Yinbo Li | Multi-surface controller |
WO2016036711A1 (en) * | 2014-09-01 | 2016-03-10 | Cleverpet Llc | Animal interaction device, system, and method |
KR102243656B1 (ko) * | 2014-09-26 | 2021-04-23 | 엘지전자 주식회사 | 모바일 디바이스, hmd 및 시스템 |
US10265043B2 (en) * | 2014-10-14 | 2019-04-23 | M3Dicine Ip Pty Ltd | Systems, devices, and methods for capturing and outputting data regarding a bodily characteristic |
USD753095S1 (en) | 2014-12-11 | 2016-04-05 | Comcast Cable Communications, Llc | Remote and base with illuminated region |
WO2016104922A1 (ko) | 2014-12-24 | 2016-06-30 | 전자부품연구원 | 웨어러블 전자기기 |
JP2016162368A (ja) | 2015-03-04 | 2016-09-05 | ソニー株式会社 | 制御装置、制御方法、およびプログラム |
WO2016141373A1 (en) | 2015-03-05 | 2016-09-09 | Magic Leap, Inc. | Systems and methods for augmented reality |
US10412173B2 (en) * | 2015-04-22 | 2019-09-10 | Panasonic Avionics Corporation | Passenger seat pairing system |
USD758367S1 (en) | 2015-05-14 | 2016-06-07 | Magic Leap, Inc. | Virtual reality headset |
USD763359S1 (en) | 2015-05-29 | 2016-08-09 | Vtech Electronics, Ltd. | Game controller |
US10338673B2 (en) | 2015-09-16 | 2019-07-02 | Google Llc | Touchscreen hover detection in an augmented and/or virtual reality environment |
US10146334B2 (en) | 2016-06-09 | 2018-12-04 | Microsoft Technology Licensing, Llc | Passive optical and inertial tracking in slim form-factor |
USD797743S1 (en) | 2016-08-22 | 2017-09-19 | Magic Leap, Inc. | Totem controller |
IL307594A (en) | 2016-08-22 | 2023-12-01 | Magic Leap Inc | Virtual, augmented and mixed reality systems and methods |
US10764053B2 (en) * | 2016-09-26 | 2020-09-01 | Snap Inc. | Systems and methods for device pairing with optical codes |
US10444987B2 (en) | 2016-12-19 | 2019-10-15 | Microsoft Technology Licensing, Llc | Facilitating selection of holographic keyboard keys |
US11163416B2 (en) | 2017-04-27 | 2021-11-02 | Magic Leap, Inc. | Light-emitting user input device for calibration or pairing |
USD844608S1 (en) | 2017-04-28 | 2019-04-02 | Facebook Technologies, Llc | Electronic input device |
USD828337S1 (en) | 2017-06-20 | 2018-09-11 | Yinbo Li | Multi-surface controller |
USD924204S1 (en) | 2018-07-24 | 2021-07-06 | Magic Leap, Inc. | Totem controller having an illumination region |
USD918176S1 (en) | 2018-07-24 | 2021-05-04 | Magic Leap, Inc. | Totem controller having an illumination region |
USD930614S1 (en) | 2018-07-24 | 2021-09-14 | Magic Leap, Inc. | Totem controller having an illumination region |
USD884700S1 (en) | 2018-08-30 | 2020-05-19 | Shenzhen Grandsun Electronic Co., Ltd. | Remote controller |
-
2018
- 2018-04-27 US US15/965,702 patent/US11163416B2/en active Active
- 2018-04-27 US US15/965,696 patent/US11112932B2/en active Active
- 2018-04-27 EP EP18790657.3A patent/EP3616040B1/en active Active
- 2018-04-27 IL IL270146A patent/IL270146B2/en unknown
- 2018-04-27 EP EP22197905.7A patent/EP4141623B1/en active Active
- 2018-04-27 KR KR1020197034642A patent/KR102472428B1/ko active IP Right Grant
- 2018-04-27 CN CN201880042586.4A patent/CN110832439B/zh active Active
- 2018-04-27 EP EP24177515.4A patent/EP4414951A2/en active Pending
- 2018-04-27 WO PCT/US2018/029988 patent/WO2018201067A1/en unknown
- 2018-04-27 CA CA3059209A patent/CA3059209A1/en active Pending
- 2018-04-27 CN CN202311184679.XA patent/CN117311494A/zh active Pending
- 2018-04-27 JP JP2019556946A patent/JP7231556B2/ja active Active
- 2018-04-27 AU AU2018258679A patent/AU2018258679B2/en active Active
- 2018-04-27 IL IL310727A patent/IL310727A/en unknown
-
2021
- 2021-07-23 US US17/384,663 patent/US11573677B2/en active Active
-
2022
- 2022-12-29 US US18/148,316 patent/US12067209B2/en active Active
-
2023
- 2023-01-23 JP JP2023008031A patent/JP7335462B2/ja active Active
- 2023-08-17 JP JP2023132794A patent/JP7385078B1/ja active Active
- 2023-10-19 JP JP2023180164A patent/JP2023179746A/ja active Pending
-
2024
- 2024-02-29 US US18/591,983 patent/US20240201823A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5704151A (en) * | 1995-03-24 | 1998-01-06 | James Paul West | Portable battery-powered safety lock |
CN101194220A (zh) * | 2005-06-14 | 2008-06-04 | 麦孚斯公司 | 基于能够进行视觉输入反馈的触摸输入接口来控制数字设备的装置及其方法 |
CN105117016A (zh) * | 2015-09-07 | 2015-12-02 | 众景视界(北京)科技有限公司 | 用于虚拟现实和增强现实交互控制中的交互手柄 |
CN105975082A (zh) * | 2016-05-27 | 2016-09-28 | 北京小鸟看看科技有限公司 | 一种应用于虚拟现实头戴设备的手柄控制器 |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110832439B (zh) | 发光用户输入设备 | |
JP7411133B2 (ja) | 仮想現実ディスプレイシステム、拡張現実ディスプレイシステム、および複合現実ディスプレイシステムのためのキーボード | |
JP7546659B2 (ja) | 三次元環境と相互作用するためのデバイス、方法、及びグラフィカルユーザインタフェース | |
JP7118007B2 (ja) | 視野周辺の視覚的背光 | |
KR102413561B1 (ko) | 혼합 현실 환경의 가상 사용자 입력 콘트롤들 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |