JP2020518902A - 発光ユーザ入力デバイス - Google Patents

発光ユーザ入力デバイス Download PDF

Info

Publication number
JP2020518902A
JP2020518902A JP2019556946A JP2019556946A JP2020518902A JP 2020518902 A JP2020518902 A JP 2020518902A JP 2019556946 A JP2019556946 A JP 2019556946A JP 2019556946 A JP2019556946 A JP 2019556946A JP 2020518902 A JP2020518902 A JP 2020518902A
Authority
JP
Japan
Prior art keywords
user input
light emitting
input device
light
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019556946A
Other languages
English (en)
Other versions
JP2020518902A5 (ja
JP7231556B2 (ja
Inventor
ジェイムズ エム. パウダーリー,
ジェイムズ エム. パウダーリー,
サバンナ ナイルズ,
サバンナ ナイルズ,
クリストファー デイビッド ネスラデック,
クリストファー デイビッド ネスラデック,
イシオマ オサグベムウェノルー アズ,
イシオマ オサグベムウェノルー アズ,
マーシャル エー. フォンテイン,
マーシャル エー. フォンテイン,
ヘイニー アワド,
ヘイニー アワド,
ウィリアム ウィーラー,
ウィリアム ウィーラー,
ブライアン デイビッド シュワッブ,
ブライアン デイビッド シュワッブ,
ブライアン バックノー,
ブライアン バックノー,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Magic Leap Inc
Original Assignee
Magic Leap Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Magic Leap Inc filed Critical Magic Leap Inc
Publication of JP2020518902A publication Critical patent/JP2020518902A/ja
Publication of JP2020518902A5 publication Critical patent/JP2020518902A5/ja
Priority to JP2023008031A priority Critical patent/JP7335462B2/ja
Application granted granted Critical
Publication of JP7231556B2 publication Critical patent/JP7231556B2/ja
Priority to JP2023132794A priority patent/JP7385078B1/ja
Priority to JP2023180164A priority patent/JP2023179746A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0308Detection arrangements using opto-electronic means comprising a plurality of distinctive and separately oriented light emitters or reflectors associated to the pointing device, e.g. remote cursor controller with distinct and separately oriented LEDs at the tip whose radiations are captured by a photo-detector associated to the screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0483Interaction with page-structured environments, e.g. book metaphor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/145Illumination specially adapted for pattern recognition, e.g. using gratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/22Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources
    • G09G3/30Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using electroluminescent panels
    • G09G3/32Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using electroluminescent panels semiconductive, e.g. using light-emitting diodes [LED]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/80Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0384Wireless input, i.e. hardware and software details of wireless interface arrangements for pointing devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04103Manufacturing, i.e. details related to manufacturing processes specially suited for touch sensitive devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04105Pressure sensors for measuring the pressure or force exerted on the touch surface without providing the touch position
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0626Adjustment of display parameters for control of overall brightness
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Optics & Photonics (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Ophthalmology & Optometry (AREA)
  • Computer Graphics (AREA)
  • Evolutionary Computation (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Medical Informatics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)

Abstract

発光ユーザ入力デバイスは、ユーザ入力を受け取る(例えば、ユーザの親指から)ように構成される、タッチ感知式部分と、光パターンを出力するように構成される、発光部分とを含むことができる。光パターンは、ユーザ入力デバイスと相互作用するユーザを支援するために使用されることができる。実施例は、多自由度コントローラをエミュレートするステップ、スクロールまたはスワイプアクションを示すステップ、デバイスの近傍のオブジェクトの存在を示すステップ、通知の受信を示すステップ、ユーザ入力デバイスと別のデバイスのペアリングを補助するステップ、またはユーザ入力デバイスの較正を補助するステップを含む。発光ユーザ入力デバイスは、ユーザ入力を、例えば、頭部搭載型ディスプレイデバイス等のウェアラブルデバイスに提供するために使用されることができる。

Description

(関連出願の相互参照)
本願は、2017年4月27日に出願され“LIGHT−EMITTING USER INPUT DEVICE”と題された米国仮出願第62/490,863号に対する35 U.S.C. § 119(e)のもとでの優先権の利益を主張するものであり、該米国仮出願の開示は、その全体が参照により本明細書中に援用される。
本開示は、仮想現実および拡張現実結像および可視化システムに関し、より具体的には、結像および可視化システムと関連付けられた発光ユーザ入力デバイスに関する。
現代のコンピューティングおよび表示する技術は、いわゆる「仮想現実」、「拡張現実」、または「複合現実」体験のためのシステムの開発を促進しており、デジタル的に再現された画像またはその一部が、現実であるように見える、またはそのように知覚され得る様式でユーザに提示される。仮想現実または「VR」シナリオは、典型的には、他の実際の実世界の視覚的入力に対する透過性を伴わずに、デジタルまたは仮想画像情報の提示を伴う。拡張現実または「AR」シナリオは、典型的には、ユーザの周囲の実際の世界の可視化に対する拡張としてのデジタルまたは仮想画像情報の提示を伴う。複合現実または「MR」は、物理的および仮想オブジェクトが、共存し、リアルタイムで相互作用する、新しい環境を生成するための実世界と仮想世界の融合に関連する。結論から述べると、ヒトの視知覚系は、非常に複雑であって、他の仮想または実世界画像要素間における仮想画像要素の快適かつ自然のような感覚で、かつ豊かな提示を促進する、VR、AR、またはMR技術の生産は、困難である。本明細書に開示されるシステムおよび方法は、VR、AR、およびMR技術に関連する種々の課題に対処する。
発光ユーザ入力デバイスの実施例が、開示される。ユーザ入力デバイスの実施形態は、入力をAR、VR、またはMRデバイスに提供するために使用されることができる。発光ユーザ入力デバイスはまた、AR/VR/MRデバイスと関連付けられたイベントまたはオブジェクトの視覚的情報をユーザまたはユーザの環境内の人々に提供することができる。
発光ユーザ入力デバイスは、ユーザ入力を受け取る(例えば、ユーザの親指から)ように構成される、タッチセンサ式部分と、光パターンを出力するように構成される、発光部分とを含むことができる。光パターンは、ユーザがユーザ入力デバイスと相互作用することを補助するために使用されることができる。実施例は、多自由度コントローラをエミュレートするステップ、スクロールまたはスワイプアクションを示すステップ、デバイスの近傍のオブジェクトの存在を示すステップ、通知の受信を示すステップ、ユーザ入力デバイスの較正を補助するステップ、またはユーザ入力デバイスと別のデバイスのペアリングを補助するステップを含む。発光ユーザ入力デバイスは、ユーザ入力を、例えば、複合現実ディスプレイデバイス等の頭部搭載型ディスプレイシステムに提供するために使用されることができる。
本明細書に説明される主題の1つ以上の実装の詳細が、付随の図面および以下の説明に記載される。他の特徴、側面、および利点は、説明、図面、および請求項から明白となるであろう。本概要または以下の発明を実施するための形態のいずれも、本発明の主題の範囲を定義または限定することを主張するものではない。
図1は、人物によって視認されるある仮想現実オブジェクトおよびある物理的オブジェクトを伴う、複合現実シナリオの例証を描写する。
図2は、ウェアラブルシステムの実施例を図式的に図示する。
図3は、複数の深度平面を使用して3次元画像をシミュレートするためのアプローチの側面を図式的に図示する。
図4は、画像情報をユーザに出力するための導波管スタックの実施例を図式的に図示する。
図5は、導波管によって出力され得る、例示的出射ビームを示す。
図6は、導波管装置と、光を導波管装置へまたはそこから光学的に結合するための光学結合器サブシステムと、多焦点立体ディスプレイ、画像、または明視野の生成において使用される、制御サブシステムとを含む、光学システムを示す、概略図である。
図7は、ウェアラブルシステムの実施例のブロック図である。
図8は、認識されるオブジェクトに関連して仮想コンテンツをレンダリングする方法の実施例のプロセスフロー図である。
図9は、ウェアラブルシステムの別の実施例のブロック図である。
図10は、ウェアラブルシステムへのユーザ入力を決定するための方法の実施例のプロセスフロー図である。
図11は、仮想ユーザインターフェースと相互作用するための方法の実施例のプロセスフロー図である。
図12Aは、トーテムの実施例の側面および正面(ユーザが面している側)図を図示する。
図12Bは、トーテムの別の実施例の上面図を図示する。
図13Aは、トーテムの例示的タッチパッドの断面図を図示する。
図13Bは、タッチスクリーン技術の実施例を図示する。
図13Cおよび13Dは、トーテムの例示的タッチパッドの付加的断面図を図示する。 図13Cおよび13Dは、トーテムの例示的タッチパッドの付加的断面図を図示する。
図13Eは、例示的タッチパッドの底面図を図示する。
図14Aは、トーテムの例示的タッチパッドの上面図を図示する。
図14Bは、タッチパッドと関連付けられたLEDの例示的レイアウトの概観を図示する。
図15は、例示的LEDレイアウトまたはLEDレイアウトからの光のパターンを図示する。
図16Aおよび16Bは、トーテムの光放出の例示的場所または移動パターンを図示する。 図16Aおよび16Bは、トーテムの光放出の例示的場所または移動パターンを図示する。
図17Aは、トーテムの例示的コンポーネントを図示する、ブロック図である。
図17Bは、別の例示的トーテムのコンポーネントを図示する、側面断面図である。
図18A−18Dは、トーテムの後光からの光放出に関する場所または移動パターンを構成するための例示的プログラミングインターフェースを図示する。 図18A−18Dは、トーテムの後光からの光放出に関する場所または移動パターンを構成するための例示的プログラミングインターフェースを図示する。 図18A−18Dは、トーテムの後光からの光放出に関する場所または移動パターンを構成するための例示的プログラミングインターフェースを図示する。 図18A−18Dは、トーテムの後光からの光放出に関する場所または移動パターンを構成するための例示的プログラミングインターフェースを図示する。
図19A−19Cは、トーテムからの光放出の後光を使用したトーテム較正の実施例を図示する。 図19A−19Cは、トーテムからの光放出の後光を使用したトーテム較正の実施例を図示する。 図19A−19Cは、トーテムからの光放出の後光を使用したトーテム較正の実施例を図示する。
図19Dおよび19Eは、後光と関連付けられた光パターンを使用したトーテム較正の実施例を図示する。 図19Dおよび19Eは、後光と関連付けられた光パターンを使用したトーテム較正の実施例を図示する。
図20Aおよび20Bは、複合現実デバイスと後光を伴うトーテムとの間の無線ペアリングプロセスを示す、実施例を図示する。 図20Aおよび20Bは、複合現実デバイスと後光を伴うトーテムとの間の無線ペアリングプロセスを示す、実施例を図示する。
図20Cは、後光とのデバイスペアリングの例示的プロセスを図示する。
図20Dは、後光とのデバイスペアリングの別の例示的プロセスを図示する。
図21Aは、トーテムのステータスを示す、実施例を図示する。
図21Bは、電力オンおよびオフプロセスの間の光場所または移動パターンの実施例を図示する。
図21Cは、バッテリ充電ステータスを示す、光場所または移動パターンの実施例を図示する。図21Dは、トーテムがスリープモードに入ったときの例示的光パターンを図示する。
図21Eは、光場所または移動パターンに基づいてトーテムのステータスを示す、例示的プロセスを図示する。
図22Aおよび22Bは、ユーザ相互作用のためのキューとして使用される、例示的光場所または移動パターンを図示する。 図22Aおよび22Bは、ユーザ相互作用のためのキューとして使用される、例示的光場所または移動パターンを図示する。
図22Cは、光パターンを使用して、利用可能なユーザインターフェース動作のインジケーションを提供する、別の実施例を図示する。
図23は、アラートとして光パターンを使用して、正しくないまたは不適切なユーザ相互作用を示す、実施例を図示する。
図24Aは、スワイプジェスチャのための例示的光パターンを図示する。
図24Bは、タッチジェスチャのための例示的光パターンを図示する。
図24Cは、トーテム上のユーザ相互作用のためのキューを提供する、例示的プロセスを図示する。
図25Aは、光導波路の例示的相互作用使用を図示する。
図25Bは、2つの相互作用可能領域を伴うトーテムの例示的相互作用使用を図示する。
図25Cは、トーテムと相互作用するための例示的プロセスを図示する。
図26Aおよび26Bは、トーテムを使用して物理的オブジェクトと相互作用する、実施例を図示する。 図26Aおよび26Bは、トーテムを使用して物理的オブジェクトと相互作用する、実施例を図示する。
図27は、6自由度(6DOF)トーテムを用いて仮想オブジェクトを移動させる、実施例を図示する。
図28Aおよび28Bは、光パターンの場所および移動を介してオブジェクトの情報を提供する、実施例を図示する。 図28Aおよび28Bは、光パターンの場所および移動を介してオブジェクトの情報を提供する、実施例を図示する。
図28Cは、光パターンを使用してオブジェクトと関連付けられた情報を提供するための例示的プロセスを図示する。
図29Aは、通知の受信を示す、例示的光場所または移動パターンを図示する。
図29Bは、トーテム上の光パターンを使用して通知を提供するための例示的プロセスを図示する。
図30は、ユーザの環境内の人物にユーザの現在の相互作用を知らせるために使用され得る、例示的光パターンを図示する。
図面全体を通して、参照番号は、参照される要素間の対応を示すために再使用され得る。図面は、本明細書に説明される例示的実施形態を図示するために提供され、本開示の範囲を限定することを意図していない。
発光ユーザ入力デバイスの概要
タッチセンサ式ユーザ入力デバイスは、スワイプ、タップ、クリック、押下等のユーザ入力をサポートすることができる。例えば、ユーザが、タッチパッドを使用して、ウェブサイトをブラウズするとき、ユーザは、1つの指(例えば、親指)を使用して、左右にスワイプさせ、ウェブページを左右に移動させる、または上下にタップし、ウェブページを上下に移動させることができる。例えば、コンテンツを所望の場所にスナップする、コンテンツをスクロールまたはリサイズする等、より多くのユーザインターフェース機能性を達成するために、タッチセンサ式ユーザ入力デバイスは、多くの場合、複数の指を要求する。例えば、ユーザは、2つの指を使用して、ウェブページを拡大し、1つの指を使用して、ウェブページ内を移動させ得る。しかしながら、タッチパッドが、ウェアラブルデバイス(AR/VR/MRウェアラブルディスプレイを含み得る)のためのハンドヘルドユーザ入力デバイスの一部であるとき、ユーザは、それほど多くの指がタッチパッドと相互作用するために利用可能ではない場合がある。例えば、ユーザは、親指を使用して、タッチパッドと相互作用しながら、他の指を使用して、トーテムを保持し得る。その結果、従来のハンドヘルドデバイスのタッチパッドによって達成され得る、ユーザインターフェース機能性のタイプは、有意に減少し得る。
本問題を改善するために、本明細書に説明されるトーテムの実施形態のタッチパッドは、複数の相互作用可能領域に分割されることができ、各領域は、1つ以上のタイプのユーザインターフェース相互作用にマッピングされてもよい。例えば、タッチパッドは、タッチパッドの中心の近傍にある、タッチ表面と、タッチ表面を少なくとも部分的に囲繞する、外側領域とを含んでもよい。外側領域は、ユーザがトーテムと相互作用することを補助する、光パターン(例えば、光の場所、照明、色、および/または移動)を出力するように構成される、光導波路を含んでもよい。光導波路によって出力された光パターンは、光パターンがトーテムの中心タッチセンサ式部分を囲繞するように現れ得るため、時として、本明細書では、「後光」と称され得る。光導波路は、ユーザが、光導波路と相互作用し、光導波路領域を介して、タッチセンサ式入力をトーテムに提供し得るように、タッチセンサの上部にあってもよい。ユーザが、タッチ表面を作動させると、トーテムは、カーソルアクション(例えば、ブラウザ上で前後に移動させる等)をシミュレートし得る。しかしながら、ユーザが、他のタイプユーザインターフェース動作(例えば、ウェブページをスクロールする等)を実施することを所望する場合、ユーザは、光導波路を作動させてもよい。いくつかの実施例では、光導波路は、タッチセンサ式ではなくてもよい。ユーザは、光導波路の近傍の領域(例えば、光導波路によって囲繞され得る、タッチパッド上の領域)を作動させ、トーテムを作動させることができる。
別の実施例として、タッチ表面は、2つの相互作用可能領域に分割されることができ、1つの領域は、ユーザのタッチアクション(例えば、多自由度(DOF)指向性Dパッドの機能をシミュレートする等)をサポートする一方、別の領域は、ユーザのスワイプアクションをサポートする。2つの相互作用可能領域を伴うタッチ表面は、1つの内側リング(第1の相互作用可能領域として)と、1つの外側リング(第2の相互作用可能領域として)とを伴う、同心リングを含んでもよい。本実施例では、タッチ表面を囲繞する光導波路は、相互作用可能である場合とそうではない場合があるが、ユーザの相互作用に関連する、またはウェアラブルシステムに関連する、視覚的フィードバックを提供することができる。本明細書にさらに説明されるであろうように、相互作用可能領域によってサポートされるユーザ相互作用のタイプは、仮想環境内のイベントまたはユーザが相互作用するオブジェクトに基づいて、動的に変化されてもよい。例えば、外側領域は、ユーザがウェブをブラウズしているとき、Dパッドとして使用されてもよい一方、同一領域は、ユーザが仮想ゲームをプレーしているとき、スワイプ相互作用(例えば、巡回スワイプ)をサポートしてもよい。
いくつかの実施形態では、トーテムの光導波路は、ユーザ相互作用のためのキューを提供することができる。例えば、後光が、ユーザに利用可能なユーザ相互作用のタイプおよび場所を知らせる、または現在のユーザ相互作用を示すために使用されることができる。実施例として、光導波路の下の発光ダイオード(LED)は、照光し、ユーザに、LEDが照光し、ウェアラブルディスプレイ上の仮想要素を選択する、タッチ表面の一部をユーザがタッチまたはタップすることができることを示し得る。LEDはまた、触覚的フィードバック(例えば、トーテム内の触覚アクチュエータによって提供される)またはオーディオフィードバック(例えば、ウェアラブルデバイスのスピーカによって提供される)と併せて使用され、ユーザ相互作用のインジケーションを提供する、またはユーザ相互作用を誘導してもよい。
トーテムが、ウェアラブルデバイスと併用されるとき、ユーザインターフェース体験は、ユーザを囲繞する3D環境に拡張されることができる。しかしながら、ウェアラブルディスプレイを通して知覚されるユーザの視野(FOV)は、ヒトの眼の自然FOVより小さい、またはユーザを囲繞する環境全体より小さくあり得る。したがって、最初は、拡張現実ディスプレイのFOV外であるが、続いて、ウェアラブルディスプレイのFOVの中に移動し得る(例えば、ユーザに対して移動し得る、オブジェクト)、または、続いて、ユーザの身体、頭部、または眼姿勢が変化する場合(ユーザのFOVを変化させるであろう)、知覚可能となり得る、ユーザの環境内の物理的または仮想オブジェクトが、存在し得る。例えば、ゲームのコンテキストでは、ユーザは、ロボットのアバタを見出そうとし得る。ロボットが、ユーザの現在のFOVのすぐ外にある場合、ユーザは、ウェアラブルディスプレイから、ロボットが近傍に存在することのキューを受信し得ない。ユーザが、その頭部を若干移動させる場合、ロボットは、突然、ユーザのFOVに進入し得、これは、ユーザを驚かせ得る。さらに、ウェアラブルディスプレイを通したユーザのFOVが、比較的に小さい場合、ユーザが、その頭部を方向転換させる、またはロボットを直視しない限り、ユーザにとって、ロボットを見出すことは困難であり得る。
ユーザインターフェース体験を改良するために、トーテムが、ユーザのFOV外のオブジェクトについての情報を提供してもよい。例えば、トーテムは、タッチパッドの外側領域上に、ユーザの現在のFOV外の対応するオブジェクトに関する視覚的後光(例えば、光導波路を介して放出される)を提供することができる。後光の光場所または移動パターンは、オブジェクトと関連付けられた情報を示すために使用されることができ、例えば、より明るいまたはより大きい後光は、オブジェクトがFOVのより近くにあることを示し得る一方、より暗いまたはより小さい後光は、オブジェクトがFOVからより遠いことを示し得る。同様に、後光の色が、オブジェクトのタイプを示すために使用されてもよい。例えば、競争者アバタ(仮想ゲームにおいて)は、赤色後光と関連付けられてもよい一方、仲間のアバタ(仮想ゲームにおいて)は、緑色後光と関連付けられてもよい。別の実施例として、点滅虹色後光は、システム通知または警告を示してもよい。後光の光パターンは、ユーザの環境内のオブジェクトが変化するにつれて、またはユーザが姿勢を変化させるにつれて、変化してもよい。
加えて、または代替として、後光の光パターンは、プロセスの進行度を示すために使用されてもよい。例えば、トーテムが充電中の間、トーテムは、バッテリの充電のパーセンテージに対応する、後光を表示してもよい。例えば、バッテリが、25%のみ充電されるとき、トーテムは、後光の1/4(例えば、90度弧)を表示してもよい。バッテリが、100%まで充電されると、トーテムは、後光全体を表示してもよい。後光の光場所または移動パターンはまた、ユーザの相互作用のインジケーションをユーザの環境内の人物に提供してもよい。例えば、ユーザが、拡張現実デバイスを使用して、ビデオを記録しているとき、LED後光は、近傍の他者がユーザの記録セッションを偶発的に中断または干渉することがないであろうように、赤色に明滅し、近傍の他者に、ディスプレイが記録モードであることを知らせてもよい。
本明細書に説明されるトーテムの実施形態は、プログラム可能であってもよい。例えば、光パターンの場所または移動は、種々の実施形態では、アプリケーション開発者によって、またはユーザによって、カスタマイズされてもよい。後光は、ユーザが相互作用するアプリケーションのタイプに基づいて、カスタマイズされてもよい(例えば、アプリケーションプログラミングインターフェース(API)を介して)。実施例として、タッチパッドの光導波路は、ユーザがブラウザを使用しているとき、4方向Dパッド(上、下、左、および右ユーザインターフェース動作に対応する)にマッピングされてもよい。別の実施例として、タッチ表面の外側領域は、ユーザがレースゲームをプレーしているとき、3方向Dパッドにマッピングされてもよく、3方向Dパッドは、左方向転換、右方向転換、および制動に対応してもよい。ユーザはまた、後光の光場所または移動パターンをカスタマイズしてもよい。例えば、ユーザは、後光をオフにする、または電子メール通知の受信と関連付けられた後光の色を変化させることができる。ユーザは、ウェアラブルディスプレイを使用して、またはトーテムを作動させることによって、後光と関連付けられた光パターンをカスタマイズすることができる。トーテム、後光、およびトーテムおよびウェアラブルデバイスを使用したユーザインターフェース相互作用の詳細な実施例は、下記に説明される。
例示的トーテムは、ウェアラブルシステム(または任意のタイプのAR、MR、またはVRデバイス)と併用されるように説明されるが、本明細書に説明される例示的トーテムおよび技法はまた、他のシステムと併用されることができる。例えば、トーテムは、プロジェクタまたはディスプレイ(例えば、テレビまたはコンピュータディスプレイ)、ゲーム用システム、オーディオシステム、モノのインターネット(IoT)の接続可能デバイス、または別のコンピューティングデバイスと相互作用するために使用されてもよい。
ウェアラブルシステムの3Dディスプレイの実施例
ウェアラブルシステム(本明細書では、拡張現実(AR)システムとも称される)は、2Dまたは3D仮想画像をユーザに提示するために構成されることができる。画像は、組み合わせまたは同等物における、静止画像、ビデオのフレーム、またはビデオであってもよい。ウェアラブルシステムは、ユーザ相互作用のために、単独で、または組み合わせて、VR、AR、またはMR環境を提示し得る、ウェアラブルデバイスを備えてもよい。ウェアラブルデバイスは、例えば、頭部搭載型ディスプレイ(HMD)等のウェアラブルディスプレイデバイスを含むことができる。ウェアラブルデバイスはまた、ウェアラブルデバイスのためのデータ処理の一部を取り扱う中央処理ユニット、バッテリ等を備え得る、ベルトパックを含むことができる。いくつかの状況では、ウェアラブルデバイスは、拡張現実デバイス(ARD)と同義的に使用されることができる。
図1は、人物によって視認される、ある仮想現実オブジェクトおよびある物理的オブジェクトを伴う、複合現実シナリオの例証を描写する。図1では、MR場面100が、描写され、MR技術のユーザには、人々、木々、背景における建物、およびコンクリートプラットフォーム120を特徴とする、実世界公園状設定110が見える。これらのアイテムに加え、MR技術のユーザはまた、実世界プラットフォーム120上に立っているロボット像130と、マルハナバチの擬人化のように見える、飛んでいる漫画のようなアバタキャラクタ140とが「見える」と知覚するが、これらの要素は、実世界には存在しない。
3Dディスプレイが、真の深度感覚、より具体的には、表面深度のシミュレートされた感覚を生成するために、ディスプレイの視野内の点毎に、その仮想深度に対応する遠近調節応答を生成することが望ましい。ディスプレイ点に対する遠近調節応答が、収束および立体視の両眼深度キューによって決定されるようなその点の仮想深度に対応しない場合、ヒトの眼は、遠近調節衝突を体験し、不安定な結像、有害な眼精疲労、頭痛、および遠近調節情報の不在下では、表面深度のほぼ完全な欠如をもたらし得る。
VR、AR、およびMR体験は、複数の深度平面に対応する画像が視認者に提供されるディスプレイを有する、ディスプレイシステムによって提供されることができる。画像は、深度平面毎に異なってもよく(例えば、場面またはオブジェクトの若干異なる提示を提供する)、視認者の眼によって別個に集束され、それによって、異なる深度平面上に位置する場面に関する異なる画像特徴に合焦させるために要求される眼の遠近調節に基づいて、および/または合焦からずれている異なる深度平面上の異なる画像特徴を観察することに基づいて、ユーザに深度キューを提供することに役立ち得る。本明細書のいずれかに議論されるように、そのような深度キューは、信用できる深度の知覚を提供する。
図2は、ウェアラブルシステム200の実施例を図示する。ウェアラブルシステム200は、ディスプレイ220と、ディスプレイ220の機能をサポートするための種々の機械的および電子的モジュールおよびシステムとを含むことができる。ディスプレイ220は、ユーザ、装着者、または視認者210によって装着可能である、フレーム230に結合されてもよい。ディスプレイ220は、ユーザ210の眼の正面に位置付けられることができる。ウェアラブルシステム(ディスプレイ220等)の一部は、ユーザの頭部上に装着されてもよい。
図2では、スピーカ240が、フレーム230に結合され、ユーザの外耳道に隣接して位置付けられる(いくつかの実施形態では、示されない別のスピーカが、ユーザの他方の外耳道に隣接して位置付けられ、ステレオ/成形可能音響制御を提供する)。ウェアラブルシステム200はまた、ユーザの周囲の環境内の世界を観察する、外向きに面した結像システム464(図4に示される)を含むことができる。ウェアラブルシステム100はまた、ユーザの眼移動を追跡し得る、内向きに面した結像システム462(図4に示される)を含むことができる。内向きに面した結像システムは、一方の眼の移動または両方の眼の移動のいずれかを追跡してもよい。内向きに面した結像システムは、フレーム230に取り付けられてもよく、内向きに面した結像システムによって入手された画像情報を処理し、例えば、ユーザ210の眼の瞳孔直径および/または配向、眼の移動、または眼姿勢を決定し得る、処理モジュール260および/または270と電気通信してもよい。
実施例として、ウェアラブルシステム200は、外向きに面した結像システム464および/または内向きに面した結像システム462を使用して、ユーザの姿勢の画像を入手することができる。姿勢は、ユーザの運動を決定する、またはユーザの画像を合成するために使用されてもよい。外向きに面した結像システム464および/または内向きに面した結像システム462によって入手された画像は、テレプレゼンスセッションにおいて、第2のユーザに通信され、第2のユーザ環境内でユーザの存在の有形感覚を作成してもよい。
ディスプレイ220は、有線導線または無線接続等によって、フレーム230に固定して取り付けられる、ユーザによって装着されるヘルメットまたは帽子に固定して取り付けられる、ヘッドホンに内蔵される、または別様にユーザ210に除去可能に取り付けられる(例えば、リュック式構成において、ベルト結合式構成において)等、種々の構成において搭載され得る、ローカルデータ処理モジュール260に動作可能に結合されることができる(250)。
ローカル処理およびデータモジュール260は、ハードウェアプロセッサおよび不揮発性メモリ(例えば、フラッシュメモリ)等のデジタルメモリを備えてもよく、その両方とも、データの処理、キャッシュ、および記憶を補助するために利用され得る。データは、a)画像捕捉デバイス(例えば、内向きに面した結像システムおよび/または外向きに面した結像システム内のカメラ)、マイクロホン、慣性測定ユニット(IMU)、加速度計、コンパス、全地球測位システム(GPS)ユニット、無線デバイス、および/またはジャイロスコープ等のセンサ(例えば、フレーム230に動作可能に結合される、または別様にユーザ210に取り付けられ得る)から捕捉される、および/またはb)場合によっては処理または読出後にディスプレイ220への通過のために、遠隔処理モジュール270および/または遠隔データリポジトリ280を使用して入手および/または処理される、データを含んでもよい。ローカル処理およびデータモジュール260は、これらの遠隔モジュールがローカル処理およびデータモジュール260へのリソースとして利用可能であるように、有線または無線通信リンク等を介して、通信リンク262および/または264によって遠隔処理モジュール270および/または遠隔データリポジトリ280に動作可能に結合されてもよい。加えて、遠隔処理モジュール280および遠隔データリポジトリ280は、相互に動作可能に結合されてもよい。ローカル処理およびデータモジュール260、遠隔処理モジュール270、および遠隔データリポジトリ280はそれぞれ、ネットワークインターフェースを含み、通信リンク262、264を経由して、通信を提供してもよい。
いくつかの実施形態では、遠隔処理モジュール270は、データおよび/または画像情報を分析および処理するように構成される、1つ以上のプロセッサを備えてもよい。いくつかの実施形態では、遠隔データリポジトリ280は、デジタルデータ記憶設備を備え得、これは、インターネットまたは「クラウド」リソース構成における他のネットワーキング構成を通して利用可能であってもよい。いくつかの実施形態では、全てのデータが、記憶され、全ての算出が、ローカル処理およびデータモジュールにおいて実施され、遠隔モジュールからの完全に自律的な使用を可能にする。
ヒト視覚系は、複雑であって、深度の現実的知覚を提供することは、困難である。理論によって限定されるわけではないが、オブジェクトの視認者は、輻輳・開散運動運動(vergence)と遠近調節(accmmodation)の組み合わせに起因して、オブジェクトを3次元として知覚し得ると考えられる。相互に対する2つの眼の輻輳・開散運動運動(すなわち、瞳孔が、相互に向かって、またはそこから離れるように移動し、眼の視線を収束させ、オブジェクトを固視するような瞳孔の回転)は、眼の水晶体の合焦(または「遠近調節」)と緊密に関連付けられる。通常条件下、焦点を1つのオブジェクトから異なる距離における別のオブジェクトに変化させるための眼のレンズの焦点の変化または眼の遠近調節は、「遠近調節−輻輳・開散運動運動反射」として知られる関係下、輻輳・開散運動運動の整合変化を自動的に同一距離に生じさせるであろう。同様に、輻輳・開散運動運動の変化は、通常条件下、遠近調節の整合変化を誘起するであろう。遠近調節と輻輳・開散運動運動との間のより良好な整合を提供するディスプレイシステムは、3次元画像のより現実的かつ快適なシミュレーションを形成し得る。
図3は、複数の深度平面を使用して3次元画像をシミュレートするためのアプローチの側面を図示する。図3を参照すると、z−軸上の眼302および304からの種々の距離におけるオブジェクトは、それらのオブジェクトが合焦するように、眼302および304によって遠近調節される。眼302および304は、特定の遠近調節された状態をとり、オブジェクトをz−軸に沿った異なる距離に合焦させる。その結果、特定の遠近調節された状態は、特定の深度平面におけるオブジェクトまたはオブジェクトの一部が、眼がその深度平面に対して遠近調節された状態にあるとき、合焦するように、関連付けられた焦点距離を有する、深度平面306のうちの特定の1つと関連付けられると言え得る。いくつかの実施形態では、3次元画像は、眼302および304毎に、画像の異なる提示を提供することによって、また、深度平面のそれぞれに対応する画像の異なる提示を提供することによって、シミュレートされてもよい。例証を明確にするために、別個であるように示されるが、眼302および304の視野は、例えば、z−軸に沿った距離が増加するにつれて、重複し得ることを理解されたい。加えて、例証を容易にするために、平坦であるように示されるが、深度平面の輪郭は、深度平面内の全ての特徴が特定の遠近調節された状態における眼と合焦するように、物理的空間内で湾曲され得ることを理解されたい。理論によって限定されるわけではないが、ヒトの眼は、典型的には、有限数の深度平面を解釈し、深度知覚を提供することができると考えられる。その結果、知覚された深度の高度に真実味のあるシミュレーションが、眼にこれらの限定数の深度平面のそれぞれに対応する画像の異なる提示を提供することによって達成され得る。
導波管スタックアセンブリ
図4は、画像情報をユーザに出力するための導波管スタックの実施例を図示する。ウェアラブルシステム400は、複数の導波管432b、434b、436b、438b、400bを使用して、3次元知覚を眼/脳に提供するために利用され得る、導波管のスタックまたはスタックされた導波管アセンブリ480を含む。いくつかの実施形態では、ウェアラブルシステム400は、図2のウェアラブルシステム200に対応してもよく、図4は、そのウェアラブルシステム200のいくつかの部分をより詳細に図式的に示す。例えば、いくつかの実施形態では、導波管アセンブリ480は、図2のディスプレイ220の中に統合されてもよい。
図4を継続して参照すると、導波管アセンブリ480はまた、複数の特徴458、456、454、452を導波管の間に含んでもよい。いくつかの実施形態では、特徴458、456、454、452は、レンズであってもよい。他の実施形態では、特徴458、456、454、452は、レンズではなくてもよい。むしろ、それらは、単に、スペーサであってもよい(例えば、空気間隙を形成するためのクラッディング層および/または構造)。
導波管432b、434b、436b、438b、440bおよび/または複数のレンズ458、456、454、452は、種々のレベルの波面曲率または光線発散を用いて画像情報を眼に送信するように構成されてもよい。各導波管レベルは、特定の深度平面と関連付けられてもよく、その深度平面に対応する画像情報を出力するように構成されてもよい。画像投入デバイス420、422、424、426、428は、それぞれ、眼410に向かって出力のために各個別の導波管を横断して入射光を分散させるように構成され得る、導波管440b、438b、436b、434b、432bの中に画像情報を投入するために利用されてもよい。光は、画像投入デバイス420、422、424、426、428の出力表面から出射し、導波管440b、438b、436b、434b、432bの対応する入力縁の中に投入される。いくつかの実施形態では、光の単一ビーム(例えば、コリメートされたビーム)が、各導波管の中に投入され、特定の導波管と関連付けられた深度平面に対応する特定の角度(および発散量)において眼410に向かって指向される、クローン化されたコリメートビームの場全体を出力してもよい。
いくつかの実施形態では、画像投入デバイス420、422、424、426、428は、それぞれ、それぞれの対応する導波管440b、438b、436b、434b、432bの中への投入のための画像情報を生成する、離散ディスプレイである。いくつかの他の実施形態では、画像投入デバイス420、422、424、426、428は、例えば、画像情報を1つ以上の光学導管(光ファイバケーブル等)を介して、画像投入デバイス420、422、424、426、428のそれぞれに送り得る、単一の多重化されたディスプレイの出力端である。
コントローラ460が、スタックされた導波管アセンブリ480および画像投入デバイス420、422、424、426、428の動作を制御する。コントローラ460は、導波管440b、438b、436b、434b、432bへの画像情報のタイミングおよび提供を調整する、プログラミング(例えば、非一過性コンピュータ可読媒体内の命令)を含む。いくつかの実施形態では、コントローラ460は、単一一体型デバイスまたは有線または無線通信チャネルによって接続される分散型システムであってもよい。コントローラ460は、いくつかの実施形態では、処理モジュール260および/または270(図2に図示される)の一部であってもよい。
導波管440b、438b、436b、434b、432bは、全内部反射(TIR)によって各個別の導波管内で光を伝搬するように構成されてもよい。導波管440b、438b、436b、434b、432bはそれぞれ、主要上部および底部表面およびそれらの主要上部表面と底部表面との間に延在する縁を伴う、平面である、または別の形状(例えば、湾曲)を有してもよい。図示される構成では、導波管440b、438b、436b、434b、432bはそれぞれ、光を再指向させ、各個別の導波管内で伝搬させ、導波管から画像情報を眼410に出力することによって、光を導波管から抽出するように構成される、光抽出光学要素440a、438a、436a、434a、432aを含んでもよい。抽出された光はまた、外部結合光と称され得、光抽出光学要素はまた、外部結合光学要素と称され得る。抽出された光のビームは、導波管によって、導波管内で伝搬する光が光再指向要素に衝打する場所において出力される。光抽出光学要素(440a、438a、436a、434a、432a)は、例えば、反射および/または回折光学特徴であってもよい。説明を容易にし、図面を明確にするために、導波管440b、438b、436b、434b、432bの底部主要表面に配置されて図示されるが、いくつかの実施形態では、光抽出光学要素440a、438a、436a、434a、432aは、上部および/または底部主要表面に配置されてもよく、および/または導波管440b、438b、436b、434b、432bの容積内に直接配置されてもよい。いくつかの実施形態では、光抽出光学要素440a、438a、436a、434a、432aは、透明基板に取り付けられ、導波管440b、438b、436b、434b、432bを形成する、材料の層内に形成されてもよい。いくつかの他の実施形態では、導波管440b、438b、436b、434b、432bは、モノリシック材料部品であってもよく、光抽出光学要素440a、438a、436a、434a、432aは、その材料部品の表面上および/または内部に形成されてもよい。
図4を継続して参照すると、本明細書に議論されるように、各導波管440b、438b、436b、434b、432bは、光を出力し、特定の深度平面に対応する画像を形成するように構成される。例えば、眼の最近傍の導波管432bは、そのような導波管432bの中に投入されるにつれて、コリメートされた光を眼410に送達するように構成されてもよい。コリメートされた光は、光学無限遠焦点面を表し得る。次の上方の導波管434bは、眼410に到達し得る前に、第1のレンズ452(例えば、負のレンズ)を通して通過する、コリメートされた光を送出するように構成されてもよい。第1のレンズ452は、眼/脳が、その次の上方の導波管434bから生じる光を光学無限遠から眼410に向かって内向きにより近い第1の焦点面から生じるように解釈するように、若干の凸面波面曲率を生成するように構成されてもよい。同様に、第3の上方の導波管436bは、眼410に到達する前に、その出力光を第1のレンズ452および第2のレンズ454の両方を通して通過させる。第1および第2のレンズ452および454の組み合わせられた屈折力は、眼/脳が、第3の上方の導波管436bから生じる光が次の上方の導波管434bからの光であった光学無限遠から人物に向かって内向きにさらに近い第2の焦点面から生じるように解釈するように、別の漸増量の波面曲率を生成するように構成されてもよい。
他の導波管層(例えば、導波管438b、440b)およびレンズ(例えば、レンズ456、458)も同様に構成され、スタック内の最高導波管440bを用いて、人物に最も近い焦点面を表す集約焦点力のために、その出力をそれと眼との間のレンズの全てを通して送出する。スタックされた導波管アセンブリ480の他側の世界470から生じる光を視認/解釈するとき、レンズ458、456、454、452のスタックを補償するために、補償レンズ層430が、スタックの上部に配置され、下方のレンズスタック458、456、454、452の集約力を補償してもよい。そのような構成は、利用可能な導波管/レンズ対と同じ数の知覚される焦点面を提供する。導波管の光抽出光学要素およびレンズの集束側面は両方とも、静的であってもよい(例えば、動的または電気活性ではない)。いくつかの代替実施形態では、一方または両方とも、電気活性特徴を使用して動的であってもよい。
図4を継続して参照すると、光抽出光学要素440a、438a、436a、434a、432aは、導波管と関連付けられた特定の深度平面のために、光をその個別の導波管から再指向し、かつ本光を適切な量の発散またはコリメーションを伴って出力するように構成されてもよい。その結果、異なる関連付けられた深度平面を有する導波管は、関連付けられた深度平面に応じて、異なる量の発散を伴う光を出力する、異なる構成の光抽出光学要素を有してもよい。いくつかの実施形態では、本明細書に議論されるように、光抽出光学要素440a、438a、436a、434a、432aは、具体的角度において光を出力するように構成され得る、立体または表面特徴であってもよい。例えば、光抽出光学要素440a、438a、436a、434a、432aは、体積ホログラム、表面ホログラム、および/または回折格子であってもよい。回折格子等の光抽出光学要素は、2015年6月25日に公開された米国特許公開第2015/0178939号(参照することによってその全体として本明細書に組み込まれる)に説明される。
いくつかの実施形態では、光抽出光学要素440a、438a、436a、434a、432aは、回折パターンを形成する回折特徴または「回折光学要素」(本明細書では、「DOE」とも称される)である。好ましくは、DOEは、ビームの光の一部のみがDOEの各交差点を用いて眼410に向かって偏向される一方、残りが、全内部反射を介して、導波管を通して移動し続けるように、比較的に低回折効率を有する。画像情報を搬送する光は、したがって、複数の場所において導波管から出射する、いくつかの関連出射ビームに分割され、その結果、導波管内でバウンスする本特定のコリメートされたビームに関して、眼304に向かって非常に均一なパターンの出射放出となる。
いくつかの実施形態では、1つ以上のDOEは、能動的に回折する「オン」状態と有意に回折しない「オフ」状態との間で切替可能であってもよい。例えば、切替可能なDOEは、ポリマー分散液晶の層を備えてもよく、その中で微小液滴は、ホスト媒体中に回折パターンを備え、微小液滴の屈折率は、ホスト材料の屈折率に実質的に整合するように切り替えられることができる(その場合、パターンは、入射光を著しく回折させない)、または微小液滴は、ホスト媒体のものに整合しない屈折率に切り替えられることができる(その場合、パターンは、入射光を能動的に回折させる)。
いくつかの実施形態では、深度平面または被写界深度の数および/または分布は、視認者の眼の瞳孔サイズおよび/または配向に基づいて、動的に変動されてもよい。被写界深度は、視認者の瞳孔サイズと反比例して変化してもよい。その結果、視認者の眼の瞳孔のサイズが減少するにつれて、被写界深度は、その平面の場所が眼の焦点深度を越えるため判別不能である1つの平面が、判別可能となり、瞳孔サイズの低減および被写界深度の相当する増加に伴って、より合焦して現れ得るように増加する。同様に、異なる画像を視認者に提示するために使用される、離間される深度平面の数は、減少された瞳孔サイズに伴って減少されてもよい。例えば、視認者は、一方の深度平面から他方の深度平面への眼の遠近調節を調節せずに、第1の深度平面および第2の深度平面の両方の詳細を1つの瞳孔サイズにおいて明確に知覚することが可能ではない場合がある。しかしながら、これらの2つの深度平面は、同時に、遠近調節を変化させずに、別の瞳孔サイズにおいてユーザに合焦するには十分であり得る。
いくつかの実施形態では、ディスプレイシステムは、瞳孔サイズおよび/または配向の決定に基づいて、または特定の瞳孔サイズおよび/または配向を示す電気信号の受信に応じて、画像情報を受信する導波管の数を変動させてもよい。例えば、ユーザの眼が、2つの導波管と関連付けられた2つの深度平面間を区別不能である場合、コントローラ460は、これらの導波管のうちの1つへの画像情報の提供を停止するように構成またはプログラムされてもよい。有利には、これは、システムへの処理負担を低減させ、それによって、システムの応答性を増加させ得る。導波管のためのDOEがオンおよびオフ状態間で切替可能である実施形態では、DOEは、導波管が画像情報を受信するとき、オフ状態に切り替えられてもよい。
いくつかの実施形態では、出射ビームに視認者の眼の直径未満の直径を有するという条件を満たさせることが望ましくあり得る。しかしながら、本条件を満たすことは、視認者の瞳孔のサイズの変動性に照らして、困難であり得る。いくつかの実施形態では、本条件は、視認者の瞳孔のサイズの決定に応答して出射ビームのサイズを変動させることによって、広範囲の瞳孔サイズにわたって満たされる。例えば、瞳孔サイズが減少するにつれて、出射ビームのサイズもまた、減少し得る。いくつかの実施形態では、出射ビームサイズは、可変開口を使用して変動されてもよい。
ウェアラブルシステム400は、世界470の一部を結像する、外向きに面した結像システム464(例えば、デジタルカメラ)を含むことができる。世界470の本部分は、視野(FOV)と称され得、結像システム464は、時として、FOVカメラとも称される。視認者による視認または結像のために利用可能な領域全体は、動眼視野(FOR)と称され得る。FORは、ウェアラブルシステム400を囲繞する4πステラジアンの立体角を含んでもよい。ウェアラブルシステム400のいくつかの実装では、FORは、ユーザが、その頭部または眼を移動させ、ユーザの周囲(ユーザの正面、背後、上方、下方、または側面)のオブジェクトを見ることができるため、ディスプレイシステム400のユーザの周囲の立体角の実質的に全てを含んでもよい。外向きに面した結像システム464から得られた画像は、ユーザによって行われるジェスチャ(例えば、手または指のジェスチャ)を追跡し、ユーザの正面における世界470内のオブジェクトを検出する等のために、使用されることができる。
ウェアラブルシステム400はまた、眼移動および顔移動等のユーザの移動を観察する、内向きに面した結像システム466(例えば、デジタルカメラ)を含むことができる。内向きに面した結像システム466は、眼410の画像を捕捉し、眼304の瞳孔のサイズおよび/または配向を決定するために使用されてもよい。内向きに面した結像システム466は、ユーザが見ている方向(例えば、眼姿勢)を決定する際に使用するため、またはユーザのバイオメトリック識別(例えば、虹彩識別を介して)のため、画像を得るために使用されることができる。いくつかの実施形態では、少なくとも1つのカメラが、眼毎に、独立して、各眼の瞳孔サイズおよび/または眼姿勢を別個に決定し、それによって、各眼への画像情報の提示がその眼に対して動的に調整されることを可能にするために利用されてもよい。いくつかの他の実施形態では、片眼410のみの瞳孔直径および/または配向(例えば、対の眼あたり単一カメラのみを使用して)が、決定され、ユーザの両眼に関して類似すると仮定される。内向きに面した結像システム466によって得られる画像は、ユーザに提示されるべきオーディオまたは視覚的コンテンツを決定するためにウェアラブルシステム400によって使用され得る、ユーザの眼姿勢および/または気分を決定するために分析されてもよい。ウェアラブルシステム400はまた、IMU(例えば、加速度計、ジャイロスコープ等)、加速度計、ジャイロスコープ等のセンサを使用して、頭部姿勢(例えば、頭部位置または頭部配向)を決定してもよい。
ウェアラブルシステム400は、ユーザが、コマンドをコントローラ460に入力し、ウェアラブルシステム400と相互作用し得る、ユーザ入力デバイス466を含むことができる。例えば、ユーザ入力デバイス466は、トラックパッド、タッチスクリーン、ジョイスティック、多自由度(DOF)コントローラ、容量感知デバイス、ゲームコントローラ、キーボード、マウス、指向性パッド(Dパッド)、ワンド、触覚デバイス、トーテム、スマートフォン、スマートウォッチ、タブレット等、それらの組み合わせ、または同等物を含むことができる。多DOFコントローラは、コントローラの一部または全部の可能性として考えられる平行移動(例えば、左/右、前/後、または上/下)または回転(例えば、ヨー、ピッチ、またはロール)におけるユーザ入力を感知することができる。ユーザは、例えば、マウスをクリックする、タッチパッドをタップする、タッチスクリーンをスワイプする、容量ボタンにかざすまたはそれをタッチする、キーボードまたはゲームコントローラ(例えば、5方向Dパッド)上のキーを押下する、ジョイスティック、ワンド、またはトーテムをオブジェクトに向かって向ける、遠隔制御上のボタンを押下する、またはユーザ入力デバイスとの他の相互作用によって、ユーザ入力デバイス466またはその環境内のオブジェクト(例えば、仮想または物理的オブジェクト)と相互作用することができる。ユーザ入力デバイス466の作動は、ウェアラブルシステムに、例えば、オブジェクトと関連付けられた仮想ユーザインターフェースメニューを表示する、ゲーム内のユーザのアバタを動画化する等のユーザインターフェース動作を実施させ得る。本明細書に説明されるように、ユーザ入力デバイス466は、光を放出するように構成されてもよい。光パターンは、ユーザの環境内のオブジェクトと関連付けられた情報、ユーザ入力デバイス466またはウェアラブルデバイスとのユーザの相互作用等を表してもよい。
ある場合には、ユーザは、指(例えば、親指)を使用して、タッチセンサ式入力デバイスを押下またはスワイプし、入力をウェアラブルシステム400に提供(例えば、ユーザ入力をウェアラブルシステム400によって提供されるユーザインターフェースに提供)してもよい。ユーザ入力デバイス466は、ウェアラブルシステム400の使用の間、ユーザの手によって保持されてもよい。ユーザ入力デバイス466は、ウェアラブルシステム400と有線または無線通信することができる。ユーザ入力デバイス466は、本明細書に説明されるトーテムの実施形態を備えてもよい。トーテムは、タッチ表面を含むことができ、これは、ユーザが、軌道に沿ってスワイプする、またはタップすること等によって、トーテムを作動させることを可能にすることができる。
図5は、導波管によって出力された出射ビームの実施例を示す。1つの導波管が図示されるが、導波管アセンブリ480内の他の導波管も同様に機能し得、導波管アセンブリ480は、複数の導波管を含むことを理解されたい。光520が、導波管432bの入力縁432cにおいて導波管432bの中に投入され、TIRによって導波管432b内を伝搬する。光520がDOE432aに衝突する点において、光の一部が、出射ビーム510として導波管から出射する。出射ビーム510は、略平行として図示されるが、それらはまた、導波管432bと関連付けられた深度平面に応じて、ある角度で眼410に伝搬するように再指向されてもよい(例えば、発散出射ビーム形成)。略平行出射ビームは、眼410からの遠距離(例えば、光学無限遠)における深度平面に設定されるように現れる画像を形成するように光を外部結合する、光抽出光学要素を伴う導波管を示し得ることを理解されたい。他の導波管または他の光抽出光学要素のセットは、より発散する、出射ビームパターンを出力してもよく、これは、眼410がより近い距離に遠近調節し、網膜に合焦させることを要求し、光学無限遠より眼410に近い距離からの光として脳によって解釈されるであろう。
図6は、導波管装置と、光を導波管装置へまたはそこから光学的に結合するための光学結合器サブシステムと、多焦点立体ディスプレイ、画像、または明視野の生成において使用される制御サブシステムとを含む、光学システムを示す、概略図である。光学システムは、導波管装置と、光を導波管装置にまたはそこから光学的に結合するための光学結合器サブシステムと、制御サブシステムとを含むことができる。光学システムは、多焦点立体、画像、または明視野を生成するために使用されることができる。光学システムは、1つ以上の一次平面導波管632a(1つのみのが図6に示される)と、一次導波管632aの少なくともいくつかのそれぞれと関連付けられた1つ以上のDOE632bとを含むことができる。平面導波管632bは、図4を参照して議論される導波管432b、434b、436b、438b、440bに類似することができる。光学システムは、分散導波管装置を採用し、光を第1の軸(図6の図では、垂直またはY−軸)に沿って中継し、第1の軸(例えば、Y−軸)に沿って光の有効射出瞳を拡張させてもよい。分散導波管装置は、例えば、分散平面導波管622bと、分散平面導波管622bと関連付けられた少なくとも1つのDOE622a(二重破線によって図示される)とを含んでもよい。分散平面導波管622bは、少なくともいくつかの点において、それと異なる配向を有する一次平面導波管632bと類似または同じであってもよい。同様に、少なくとも1つのDOE622aは、少なくともいくつかの点において、DOE632aと類似または同じであってもよい。例えば、分散平面導波管622bおよび/またはDOE622aは、それぞれ、一次平面導波管632bおよび/またはDOE632aと同一材料から成ってもよい。図6に示される光学ディスプレイシステム600の実施形態は、図2に示されるウェアラブルシステム200の中に統合されることができる。
中継され、射出瞳が拡張された光は、分散導波管装置から1つ以上の一次平面導波管632bの中に光学的に結合される。一次平面導波管632bは、好ましくは、第1の軸に直交する、第2の軸(例えば、図6の図では、水平またはX−軸)に沿って、光を中継する。着目すべきこととして、第2の軸は、第1の軸に対して非直交軸であることができる。一次平面導波管632bは、その第2の軸(例えば、X−軸)に沿って、光の有効射出瞳を拡張させる。例えば、分散平面導波管622bは、光を垂直またはY−軸に沿って中継および拡張させ、光を水平またはX−軸に沿って中継および拡張させる、一次平面導波管632bにその光を通過させることができる。
光学システムは、単一モード光ファイバ640の近位端の中に光学的に結合され得る、1つ以上の着色光源(例えば、赤色、緑色、および青色レーザ光)610を含んでもよい。光ファイバ640の遠位端は、圧電材料の中空管8を通して螺合または受容されてもよい。遠位端は、固定されない可撓性カンチレバー644として、管642から突出する。圧電管642は、4つの象限電極(図示せず)と関連付けられることができる。電極は、例えば、管642の外側、外側表面または外側周縁、または直径に鍍着されてもよい。コア電極(図示せず)もまた、管642のコア、中心、内側周縁、または内径に位置する。
例えば、ワイヤ660を介して電気的に結合される、駆動電子機器650は、対向する対の電極を駆動し、圧電管642を独立して2つの軸において屈曲させる。光ファイバ644の突出する遠位先端は、機械的共鳴モードを有する。共鳴の周波数は、光ファイバ644の直径、長さ、および材料性質に依存し得る。圧電管8をファイバカンチレバー644の第1の機械的共鳴モードの近傍で振動させることによって、ファイバカンチレバー644は、振動させられ、大偏向を通して掃引し得る。
2つの軸において共振振動を刺激することによって、ファイバカンチレバー644の先端は、2次元(2−D)走査を充填する面積内において2軸方向に走査される。光源610の強度をファイバカンチレバー644の走査と同期して変調させることによって、ファイバカンチレバー644から発せられる光は、画像を形成する。そのような設定の説明は、米国特許公開第2014/0003762号(参照することによってその全体として本明細書に組み込まれる)に提供されている。
光学結合器サブシステムのコンポーネントは、走査ファイバカンチレバー644から発せられる光をコリメートする。コリメートされた光は、鏡面表面648によって、少なくとも1つの回折光学要素(DOE)622aを含有する、狭分散平面導波管622bの中に反射される。コリメートされた光は、全内部反射(TIR)によって分散平面導波管622bに沿って(図6の図に対して)垂直に伝搬し、そうすることによって、DOE622aと繰り返し交差する。DOE622aは、好ましくは、低回折効率を有する。これは、光の一部(例えば、10%)をDOE622aとの交差点の各点においてより大きい一次平面導波管632bの縁に向かって回折させ、光の一部をTIRを介して分散平面導波管622bの長さを辿ってそのオリジナル軌道上で継続させる。
DOE622aとの交差点の各点において、付加的光が、一次導波管632bの入口に向かって回折される。入射光を複数の外部結合セットに分割することによって、光の射出瞳は、分散平面導波管622b内のDOE4によって垂直に拡張される。分散平面導波管622bから外部結合された本垂直に拡張された光は、一次平面導波管632bの縁に進入する。
一次導波管632bに進入する光は、TIRを介して、一次導波管632bに沿って(図6の図に対して)水平に伝搬する。光は、複数の点においてDOE632aと交差するにつれて、TIRを介して、一次導波管632bの長さの少なくとも一部に沿って水平に伝搬する。DOE632aは、有利には、線形回折パターンおよび半径方向対称回折パターンの総和である、位相プロファイルを有し、光の偏向および集束の両方を生成するように設計または構成され得る。DOE632aは、有利には、ビームの光の一部のみが、DOE632aの各交差点において視認者の眼に向かって偏向される一方、光の残りが、TIRを介して、一次導波管632bを通して伝搬し続けるように、低回折効率(例えば、10%)を有し得る。
伝搬する光とDOE632aとの間の交差点の各点において、光の一部は、一次導波管632bの隣接面に向かって回折され、光がTIRから逃散し、一次導波管632bの面から発せられることを可能にする。いくつかの実施形態では、DOE632aの半径方向対称回折パターンは、加えて、ある焦点レベルを回折された光に付与し、個々のビームの光波面を成形(例えば、曲率を付与する)し、かつビームを設計される焦点レベルに合致する角度に操向することの両方を行う。
故に、これらの異なる経路は、異なる角度におけるDOE632aの多重度、焦点レベル、および/または射出瞳において異なる充填パターンをもたらすことによって、光を一次平面導波管632bの外部で結合させることができる。射出瞳における異なる充填パターンは、有利には、複数の深度平面を伴う明視野ディスプレイを生成するために使用されることができる。導波管アセンブリ内の各層またはスタック内の層のセット(例えば、3層)が、個別の色(例えば、赤色、青色、緑色)を生成するために採用されてもよい。したがって、例えば、第1の3つの隣接する層のセットが、それぞれ、赤色、青色、および緑色光を第1の焦点深度において生成するために採用されてもよい。第2の3つの隣接する層のセットが、それぞれ、赤色、青色、および緑色光を第2の焦点深度において生成するために採用されてもよい。複数のセットが、種々の焦点深度を伴うフル3Dまたは4Dカラー画像明視野を生成するために採用されてもよい。
ウェアラブルシステムの他のコンポーネント
多くの実装では、ウェアラブルシステムは、上記に説明されるウェアラブルシステムのコンポーネントに加えて、またはその代替として、他のコンポーネントを含んでもよい。ウェアラブルシステムは、例えば、1つ以上の触覚デバイスまたはコンポーネントを含んでもよい。触覚デバイスまたはコンポーネントは、触覚をユーザに提供するように動作可能であってもよい。例えば、触覚デバイスまたはコンポーネントは、仮想コンテンツ(例えば、仮想オブジェクト、仮想ツール、他の仮想構造)に触れると、圧力および/またはテクスチャの触覚を提供してもよい。触覚は、仮想オブジェクトが表す物理的オブジェクトの感覚を再現してもよい、または仮想コンテンツが表す想像上のオブジェクトまたはキャラクタ(例えば、ドラゴン)の感覚を再現してもよい。いくつかの実装では、触覚デバイスまたはコンポーネントは、ユーザによって装着されてもよい(例えば、ユーザウェアラブルグローブ)。いくつかの実装では、触覚デバイスまたはコンポーネントは、ユーザによって保持されてもよい。
ウェアラブルシステムは、例えば、1つ以上の物理的オブジェクトを含んでもよく、これは、ユーザによって操作可能であって、ウェアラブルシステムへの入力またはそれとの相互作用を可能にする。これらの物理的オブジェクトは、本明細書では、トーテムと称され得る。いくつかのトーテムは、例えば、金属またはプラスチック片、壁、テーブルの表面等、無生物オブジェクトの形態をとってもよい。ある実装では、トーテムは、実際には、任意の物理的入力構造(例えば、キー、トリガ、ジョイスティック、トラックボール、ロッカスイッチ)を有していなくてもよい。代わりに、トーテムは、単に、物理的表面を提供してもよく、ウェアラブルシステムは、ユーザにトーテムの1つ以上の表面上にあるように見えるように、ユーザインターフェースをレンダリングしてもよい。例えば、ウェアラブルシステムは、トーテムの1つ以上の表面上に常駐するように見えるように、コンピュータキーボードおよびトラックパッドの画像をレンダリングしてもよい。例えば、ウェアラブルシステムは、トーテムとしての役割を果たす、アルミニウムの薄い長方形プレートの表面上に見えるように、仮想コンピュータキーボードおよび仮想トラックパッドをレンダリングしてもよい。長方形プレート自体は、任意の物理的キーまたはトラックパッドまたはセンサを有していない。しかしながら、ウェアラブルシステムは、仮想キーボードおよび/または仮想トラックパッドを介して行われた選択または入力として、長方形プレートを用いたユーザ操作または相互作用またはタッチを検出し得る。ユーザ入力デバイス466(図4に示される)は、トラックパッド、タッチパッド、トリガ、ジョイスティック、トラックボール、ロッカスイッチ、マウス、キーボード、多自由度コントローラ、または別の物理的入力デバイスを含み得る、トーテムの実施形態であってもよい。ユーザは、単独で、または姿勢と組み合わせて、トーテムを使用し、ウェアラブルシステムおよび/または他のユーザと相互作用してもよい。
本開示のウェアラブルデバイス、HMD、ARD、およびディスプレイシステムと併用可能な触覚デバイスおよびトーテムの実施例は、米国特許公開第2015/0016777号(参照することによってその全体として本明細書に組み込まれる)に説明される。
例示的ウェアラブルシステム、環境、およびインターフェース
ウェアラブルシステムは、高被写界深度をレンダリングされた明視野内で達成するために、種々のマッピング関連技法を採用してもよい。仮想世界をマッピングする際、実世界内の全ての特徴および点を把握し、仮想オブジェクトを実世界に関連して正確に描くことが有利である。この目的を達成するために、ウェアラブルシステムのユーザから捕捉されたFOV画像が、実世界の種々の点および特徴についての情報を伝達する新しい写真を含むことによって、世界モデルに追加されることができる。例えば、ウェアラブルシステムは、マップ点(2D点または3D点等)のセットを収集し、新しいマップ点を見出し、世界モデルのより正確なバージョンをレンダリングすることができる。第1のユーザの世界モデルは、第2のユーザが第1のユーザを囲繞する世界を体験し得るように、(例えば、クラウドネットワーク等のネットワークを経由して)第2のユーザに通信されることができる。
図7は、MR環境700の実施例のブロック図である。MR環境700は、入力(例えば、ユーザのウェアラブルシステムからの視覚的入力702、室内カメラ等の定常入力704、種々のセンサからの感覚入力706、ユーザ入力デバイス466からのジェスチャ、トーテム、眼追跡、ユーザ入力等)を種々のユーザシステム720a、720bから受信するように構成されてもよい。ユーザシステム720a、720bは、1つ以上のユーザウェアラブルシステム(例えば、ウェアラブルシステム200および/またはディスプレイシステム220)および/または定常室内システム(例えば、室内カメラ等)を備えることができる。ウェアラブルシステムは、種々のセンサ(例えば、加速度計、ジャイロスコープ、温度センサ、移動センサ、深度センサ、GPSセンサ、内向きに面した結像システム、外向きに面した結像システム等)を使用して、ユーザの環境の場所および種々の他の属性を決定することができる。本情報はさらに、異なる視点からの画像および/または種々のキューを提供し得る、部屋内の定常カメラからの情報で補完されてもよい。カメラ(室内カメラまたは外向きに面した結像システムのカメラ等)によって入手された画像データは、マッピング点のセットに低減されてもよい。
1つ以上のオブジェクト認識装置708が、受信されたデータ(例えば、点の集合)を通してクローリングし、点を認識および/またはマッピングし、画像をタグ付けし、マップデータベース710を用いて、意味論情報をオブジェクトに結び付けることができる。マップデータベース710は、経時的に収集された種々の点およびその対応するオブジェクトを備えてもよい。種々のデバイスおよびマップデータベースは、ネットワーク(例えば、LAN、WAN等)を通して相互に接続され、クラウドにアクセスすることができる。
本情報およびマップデータベース内の点集合に基づいて、オブジェクト認識装置708a−708nは、環境内のオブジェクトを認識してもよい。例えば、オブジェクト認識装置は、顔、人物、窓、壁、ユーザ入力デバイス、テレビ、ユーザの環境内の他のオブジェクト等を認識することができる。1つ以上のオブジェクト認識装置が、ある特性を伴うオブジェクトのために特殊化されてもよい。例えば、オブジェクト認識装置708aは、顔を認識するために使用されてもよい一方、別のオブジェクト認識装置は、トーテムを認識するために使用されてもよい。
オブジェクト認識は、種々のコンピュータビジョン技法を使用して実施されてもよい。例えば、ウェアラブルシステムは、外向きに面した結像システム464(図4に示される)によって入手された画像を分析し、場面再構成、イベント検出、ビデオ追跡、オブジェクト認識、オブジェクト姿勢推定、学習、インデックス化、運動推定、または画像復元等を実施することができる。1つ以上のコンピュータビジョンアルゴリズムが、これらのタスクを実施するために使用されてもよい。コンピュータビジョンアルゴリズムの非限定的実施例は、スケール不変特徴変換(SIFT)、スピードアップロバスト特徴(SURF)、配向FASTおよび回転BRIEF(ORB)、2進数ロバスト不変スケーラブルキーポイント(BRISK)、高速網膜キーポイント(FREAK)、Viola−Jonesアルゴリズム、Eigenfacesアプローチ、Lucas−Kanadeアルゴリズム、Horn−Schunkアルゴリズム、Mean−shiftアルゴリズム、視覚的同時位置推定およびマッピング(vSLAM)技法、シーケンシャルベイズ推定器(例えば、カルマンフィルタ、拡張カルマンフィルタ等)、バンドル調節、適応閾値化(および他の閾値化技法)、反復最近傍点(ICP)、セミグローバルマッチング(SGM)、セミグローバルブロックマッチング(SGBM)、特徴点ヒストグラム、種々の機械学習アルゴリズム等を含む((例えば、サポートベクトルマシン、k−最近傍アルゴリズム、単純ベイズ、ニューラルネットワーク(畳み込みまたは深層ニューラルネットワークを含む)、または他の教師あり/教師なしモデル等)等を含む。
オブジェクト認識は、加えて、または代替として、種々の機械学習アルゴリズムによって実施されることができる。いったん訓練されると、機械学習アルゴリズムは、HMDによって記憶されることができる。機械学習アルゴリズムのいくつかの実施例は、教師ありまたは教師なし機械学習アルゴリズムを含むことができ、回帰アルゴリズム(例えば、通常の最小2乗回帰等)、インスタンスベースのアルゴリズム(例えば、学習ベクトル量子化等)、決定ツリーアルゴリズム(例えば、分類および回帰ツリー等)、ベイズアルゴリズム(例えば、単純ベイズ等)、クラスタリングアルゴリズム(例えば、k−平均クラスタリング等)、関連付けルール学習アルゴリズム(例えば、アプリオリアルゴリズム等)、人工ニューラルネットワークアルゴリズム(例えば、Perceptron等)、深層学習アルゴリズム(例えば、Deep Boltzmann Machineまたは深層ニューラルネットワーク等)、次元低減アルゴリズム(例えば、主成分分析等)、アンサンブルアルゴリズム(例えば、Stacked Gneralization等)、および/または他の機械学習アルゴリズムを含む。いくつかの実施形態では、個々のモデルは、個々のデータセットのためにカスタマイズされることができる。例えば、ウェアラブルデバイスは、基本モデルを生成または記憶することができる。基本モデルは、開始点として使用され、データタイプ(例えば、テレプレゼンスセッション内の特定のユーザ)、データセット(例えば、テレプレゼンスセッション内のユーザの取得される付加的画像のセット)、条件付き状況、または他の変数に特有の付加的モデルを生成してもよい。いくつかの実施形態では、ウェアラブルHMDは、複数の技法を利用して、集約されたデータの分析のためのモデルを生成するように構成されることができる。他の技法は、事前に定義された閾値またはデータ値の使用を含んでもよい。
ウェアラブルシステムはまた、認識されたオブジェクトを意味論情報で補完し、生命をオブジェクトに与えることができる。例えば、オブジェクト認識装置が、点のセットがドアであることを認識する場合、システムは、いくつかの意味論情報を結び付けてもよい(例えば、ドアは、ヒンジを有し、ヒンジを中心として90度移動を有する)。オブジェクト認識装置が、点のセットがトーテムであることを認識する場合、ウェアラブルシステムは、トーテムがウェアラブルシステムとペアリングされ得る(例えば、Bluetooth(登録商標)を介して)ことの意味論情報を結び付けてもよい。経時的に、マップデータベースは、システム(ローカルに常駐し得る、または無線ネットワークを通してアクセス可能であり得る)がより多くのデータを世界から蓄積するにつれて成長する。いったんオブジェクトが認識されると、情報は、1つ以上のウェアラブルシステムに伝送されてもよい。例えば、MR環境700は、Californiaで起こっている場面についての情報を含んでもよい。環境700は、New Yorkにおける1人以上のユーザに伝送されてもよい。FOVカメラおよび他の入力から受信されたデータに基づいて、オブジェクト認識装置および他のソフトウェアコンポーネントは、場面が世界の異なる部分に存在し得る第2のユーザに正確に「パス」され得るように、種々の画像から収集された点をマッピングし、オブジェクトを認識すること等ができる。環境700はまた、位置特定目的のために、トポロジマップを使用してもよい。
図8は、認識されたオブジェクトに関連して仮想コンテンツをレンダリングする方法800の実施例のプロセスフロー図である。方法800は、仮想場面がMRシステム(例えば、ウェアラブルシステム)のユーザに表され得る方法を説明する。ユーザは、その場面から地理的に遠隔に存在してもよい。例えば、ユーザは、New Yorkに存在し得るが、Californiaで現在起こっている場面を視認することを所望し得る、またはCaliforniaに居住する友人と散歩に行くことを所望し得る。
ブロック810では、ウェアラブルシステムは、ユーザの環境に関する入力をユーザおよび他のユーザから受信してもよい。これは、種々の入力デバイスおよびマップデータベース内にすでに保有されている知識を通して達成されてもよい。ユーザのFOVカメラ、センサ、GPS、眼追跡等が、ブロック810において、情報をシステムに伝達する。システムは、ブロック820において、本情報に基づいて、疎点を決定してもよい。疎点は、ユーザの周囲における種々のオブジェクトの配向および位置を表示および理解する際に使用され得る、姿勢データ(例えば、頭部姿勢、眼姿勢、身体姿勢、および/または手のジェスチャ)を決定する際に使用されてもよい。オブジェクト認識装置708a、708nは、ブロック830において、これらの収集された点を通してクローリングし、マップデータベースを使用して、1つ以上のオブジェクトを認識してもよい。本情報は、次いで、ブロック840において、ユーザの個々のウェアラブルシステムに伝達されてもよく、所望の仮想場面が、ブロック850において、適宜、ユーザに表示されてもよい。例えば、所望の仮想場面(例えば、CAにおけるユーザ)が、New Yorkにおけるユーザの種々のオブジェクトおよび他の周囲に関連して、適切な配向、位置等において表示されてもよい。
図9は、ウェアラブルシステムの別の実施例のブロック図である。本実施例では、ウェアラブルシステム900は、マップを備え、これは、世界に関するマップデータを含んでもよい。マップは、部分的に、ウェアラブルシステム上にローカルに常駐してもよく、部分的に、有線または無線ネットワークによってアクセス可能なネットワーク化された記憶場所(例えば、クラウドシステム内)に常駐してもよい。姿勢プロセス910が、ウェアラブルコンピューティングアーキテクチャ(例えば、処理モジュール260またはコントローラ460)上で実行され、ウェアラブルコンピューティングハードウェアまたはユーザの位置および配向を決定するために、マップからのデータを利用してもよい。姿勢データは、ユーザが、システムを体験し、その世界内で動作するにつれて、オンザフライで収集されたデータから算出されてもよい。データは、実または仮想環境内のオブジェクトに関する画像、センサ(概して、加速度計およびジャイロスコープコンポーネントを備える、慣性測定デバイス等)からのデータ、および表面情報を備えてもよい。
疎点表現は、同時位置特定およびマッピング(入力が画像/視覚のみである構成を指す、SLAMまたはV−SLAM)プロセスの出力であってもよい。システムは、世界内の種々のコンポーネントの場所だけではなく、世界が構成される内容も見出すように構成されることができる。姿勢は、マップへの取込およびマップからのデータの使用を含む、多くの目標を達成する、構築ブロックであり得る。
一実施形態では、疎点位置は、それ自体では完全に適正であり得ず、さらなる情報が、多焦点AR、VR、またはMR体験を生成するために必要とされ得る。概して、深度マップ情報を指す、稠密表現が、少なくとも部分的に、本間隙を充填するために利用されてもよい。そのような情報は、立体視940と称されるプロセスから算出されてもよく、深度情報は、三角測量または飛行時間感知等の技法を使用して決定される。画像情報およびアクティブパターン(アクティブプロジェクタを使用して生成される赤外線パターン等)が、立体視プロセス940への入力としての役割を果たし得る。有意な量の深度マップ情報が、ともに融合されてもよく、このうちのいくつかは、表面表現を用いて要約されてもよい。例えば、数学的に定義可能な表面は、ゲームエンジンのような他の処理デバイスへの効率的(例えば、大規模点群に対して)かつ要約しやすい入力である。したがって、立体視プロセス(例えば、深度マップ)940の出力は、融合プロセス930において組み合わせられてもよい。姿勢は、同様に、本融合プロセス930への入力であってもよく、融合930の出力は、マップ取込プロセス920への入力となる。サブ表面が、トポグラフィマッピング等において、相互に接続し、より大きい表面を形成し得、マップは、点および表面の大規模ハイブリッドとなる。
複合現実プロセス960における種々の側面を解決するために、種々の入力が、利用されてもよい。例えば、図9に描写される実施形態では、ゲームパラメータが、入力され、システムのユーザが、種々の場所で1匹以上のモンスターとモンスターバトルゲームをプレーしていること、モンスターが種々の条件下で(ユーザがモンスターを撃つ場合等)死亡または逃散すること、種々の場所における壁または他のオブジェクト、および同等物を決定し得る。世界マップは、複合現実への別の有用な入力となる、そのようなオブジェクトが相互に相対的である場所に関する情報を含んでもよい。世界に対する姿勢は、同様に、入力となり、ほぼあらゆる相互作用システムに対して重要な役割を果たす。
ユーザからの制御または入力は、ウェアラブルシステム900への別の入力である。本明細書に説明されるように、ユーザ入力は、視覚的入力、ジェスチャ、トーテム、オーディオ入力、感覚入力等を含むことができる。動き回るまたはゲームをプレーするために、例えば、ユーザは、ウェアラブルシステム900に、行うことを所望する対象に関して命令する必要があり得る。空間内で自ら移動するだけではなく、利用され得る種々の形態のユーザ制御が、存在する。一実施形態では、トーテム、別のユーザ入力デバイス、または玩具銃等のオブジェクトが、ユーザによって保持され、システムによって追跡されてもよい。システムは、好ましくは、ユーザがアイテムを保持していることを把握し、ユーザがアイテムと行っている相互作用の種類を理解するように構成されるであろう(例えば、トーテムまたはオブジェクトが、銃である場合、システムは、場所および配向だけではなく、ユーザが、そのようなアクティビティがカメラのいずれかの視野内にないときでも、生じている状況を決定することを補助し得る、IMU等のセンサを装備し得る、トリガまたは他の感知ボタンまたは要素をクリックしているかどうかも理解するように構成されてもよい)。
手のジェスチャ追跡または認識もまた、入力情報を提供してもよい。ウェアラブルシステム900は、ボタン押下のため、左または右、停止、握持、保持等をジェスチャするために、手のジェスチャを追跡および解釈するように構成されてもよい。例えば、1つの構成では、ユーザは、非ゲーム環境において電子メールまたはカレンダを通して捲る、または別の人物またはプレーヤと「フィストバンプ」を行うことを所望し得る。ウェアラブルシステム900は、動的である場合とそうではない場合がある、最小量の手のジェスチャを活用するように構成されてもよい。例えば、ジェスチャは、停止を示すために手を広げる、OKを示すために親指を上げる、OKではないことを示すために親指を下げる、または指向性コマンドを示すために左右または上下に手をフリップする等、単純な静的ジェスチャであってもよい。
眼追跡は、別の入力である(例えば、ユーザが見ている場所を追跡し、ディスプレイ技術を制御し、具体的深度または範囲においてレンダリングする)。一実施形態では、眼の輻輳・開散運動運動が、三角測量を使用して決定されてもよく、次いで、その特定の人物のために開発された輻輳・開散運動運動/遠近調節モデルを使用して、遠近調節が、決定されてもよい。
カメラシステムに関して、図9に示される例示的ウェアラブルシステム900は、3つの対のカメラ、すなわち、ユーザの顔の側面に配列される、相対的広FOVまたは受動SLAM対のカメラと、立体視結像プロセス940をハンドリングし、また、ユーザの顔の正面の手のジェスチャおよびトーテム/オブジェクト追跡を捕捉するようにユーザの正面に配向される、異なる対のカメラとを含むことができる。3つの対のカメラ内のカメラは、外向きに面した結像システム464(図4に示される)の一部であってもよい。ウェアラブルシステム900は、眼ベクトルおよび他の情報を三角測量するために、ユーザの眼に向かって配向される、眼追跡カメラ(図4に示される内向きに面した結像システム462の一部であってもよい)を含むことができる。ウェアラブルシステム900はまた、1つ以上のテクスチャ化光プロジェクタ(赤外線(IR)プロジェクタ等)を備え、テクスチャを場面の中に投入してもよい。
図10は、ウェアラブルシステムへのユーザ入力を決定するための方法1000の実施例のプロセスフロー図である。本実施例では、ユーザは、トーテムと相互作用してもよい。ユーザは、複数のトーテムを有してもよい。例えば、ユーザは、1つのトーテムをソーシャルメディアアプリケーション用、別のトーテムをゲームをプレーするため用等と指定していてもよい。ブロック1010では、ウェアラブルシステムは、トーテムの運動を検出してもよい。トーテムの移動は、ユーザのFOVカメラを通して認識されてもよい、またはセンサ(例えば、触覚グローブ、画像センサ、手追跡デバイス、眼追跡カメラ、頭部姿勢センサ等)を通して検出されてもよい。
少なくとも部分的に、検出されたジェスチャ、眼姿勢、頭部姿勢、またはトーテムを通した入力に基づいて、ウェアラブルシステムは、ブロック1020において、基準フレームに対するトーテム(またはユーザの眼または頭部またはジェスチャ)の位置、配向、および/または移動を検出する。基準フレームは、マップ点のセットであってもよく、それに基づいて、ウェアラブルシステムは、トーテム(またはユーザ)の移動をアクションまたはコマンドに変換する。ブロック1030では、ユーザとトーテムの相互作用は、マッピングされる。基準フレーム1020に対するユーザの相互作用のマッピングに基づいて、システムは、ブロック1040において、ユーザ入力を決定する。
例えば、ユーザは、トーテムまたは物理的オブジェクトを往復して移動させ、仮想ページを捲り、次のページに進む、または1つのユーザインターフェース(UI)ディスプレイ画面から別のUI画面に移動させることを示してもよい。別の実施例として、ユーザは、その頭部または眼を移動させ、ユーザのFOR内の異なる実または仮想オブジェクトを見てもよい。特定の実または仮想オブジェクトにおけるユーザの注視が、閾値時間より長い場合、実または仮想オブジェクトは、ユーザ入力として選択されてもよい。いくつかの実装では、ユーザの眼の輻輳・開散運動運動が、追跡されることができ、遠近調節/輻輳・開散運動運動モデルが、ユーザの眼の遠近調節状態を決定するために使用されることができ、これは、ユーザが合焦している深度平面に関する情報を提供する。いくつかの実装では、ウェアラブルシステムは、レイキャスティング技法を使用して、ユーザの頭部姿勢または眼姿勢の方向に沿った実または仮想オブジェクトを決定することができる。種々の実装では、レイキャスティング技法は、実質的に殆ど横方向幅を伴わない細い光束を投光するステップまたは実質的横方向幅(例えば、円錐または錐台)を伴う光線を投光するステップを含むことができる。
ユーザインターフェースは、本明細書に説明されるようなディスプレイシステム(図2におけるディスプレイ220等)によって投影されてもよい。また、1つ以上のプロジェクタ等の種々の他の技法を使用して表示されてもよい。プロジェクタは、画像をキャンバスまたは地球儀等の物理的オブジェクト上に投影してもよい。ユーザインターフェースとの相互作用は、システムまたはシステムの一部の外部に1つ以上のカメラを使用して(例えば、内向きに面した結像システム462または外向きに面した結像システム464等を使用して)追跡されてもよい。
図11は、仮想ユーザインターフェースと相互作用するための方法1100の実施例のプロセスフロー図である。方法1100は、本明細書に説明されるウェアラブルシステムによって実施されてもよい。
ブロック1110では、ウェアラブルシステムは、特定のUIを識別してもよい。UIのタイプは、ユーザによって事前に決定されてもよい。ウェアラブルシステムは、ユーザ入力(例えば、ジェスチャ、視覚的データ、オーディオデータ、感覚データ、直接コマンド等)に基づいて、特定のUIが取り込まれる必要があることを識別してもよい。ブロック1120では、ウェアラブルシステムは、仮想UIのためのデータを生成してもよい。例えば、UIの境、一般的構造、形状等と関連付けられたデータが、生成されてもよい。加えて、ウェアラブルシステムは、ウェアラブルシステムがユーザの物理的場所に関連してUIを表示し得るように、ユーザの物理的場所のマップ座標を決定してもよい。例えば、UIが、身体中心である場合、ウェアラブルシステムは、リングUIがユーザの周囲に表示され得る、または平面UIが壁上またはユーザの正面に表示され得るように、ユーザの物理的体勢、頭部姿勢、または眼姿勢の座標を決定してもよい。UIが、手中心である場合、ユーザの手のマップ座標が、決定されてもよい。これらのマップ点は、FOVカメラ、感覚入力を通して受信されたデータ、または任意の他のタイプの収集されたデータを通して、導出されてもよい。
ブロック1130では、ウェアラブルシステムは、データをディスプレイにクラウドから送信してもよい、またはデータは、ローカルデータベースからディスプレイコンポーネントに送信されてもよい。ブロック1140では、UIは、送信されたデータに基づいて、ユーザに表示される。例えば、明視野ディスプレイは、仮想UIをユーザの眼の一方または両方の中に投影することができる。いったん仮想UIが、作成されると、ウェアラブルシステムは、ブロック1150において、単に、さらなる仮想コンテンツを仮想UI上に生成するユーザからのコマンドを待機してもよい。例えば、UIは、ユーザの身体の周囲の身体中心リングであってもよい。ウェアラブルシステムは、次いで、コマンド(ジェスチャ、頭部または眼移動、ユーザ入力デバイスからの入力等)を待機してもよく、それが認識される場合(ブロック1160)、コマンドと関連付けられた仮想コンテンツが、ユーザに表示されてもよい(ブロック1170)。
ウェアラブルシステム、UI、およびユーザ体験(UX)の付加的実施例は、米国特許公開第2015/0016777号(参照することによってその全体として本明細書に組み込まれる)に説明される。
例示的トーテムの概要
図4および7−10を参照して説明されるように、ユーザは、ユーザ入力デバイス466(例えば、トーテム等)を使用して、種々のユーザインターフェース動作をディスプレイ(例えば、ディスプレイ220)上で実施することができる。図12Aは、トーテム1200の例示的実施形態を図示し、側面図1210および正面(ユーザに面した)1250を図示する。トーテム1200は、単独で、または他のユーザ入力デバイスと組み合わせて、ユーザ入力デバイス466(図4に示される)であってもよい。トーテム1200は、ハンドヘルドであるように定寸および成形されることができる。本明細書に開示される種々の実施形態のうちの1つ以上のものにおけるユーザ入力デバイス(例えば、トーテム等)のさらなる実施例は、2017年8月22日に出願された米国特許出願第15/683,677号に示され、かつ説明されており、装飾的外観は、2016年8月22日に出願された米国意匠特許出願第29/575,031号のトーテムコントローラと同一または類似する(前述の出願は両方とも、参照することによってその全体として本明細書に組み込まれる)。
図12Aに示されるトーテム1200は、トリガ1212と、ホームボタン1256と、タッチパッド1260とを有する、本体1214を含むことができるが、より多いまたはより少ないボタン、トリガ、または特徴が、他の例示的トーテムでは含まれることができる。光導波路1264は、タッチパッド1260を実質的に囲繞することができる。図12Aおよび12Bに示される実施例では、光導波路1264は、円形タッチパッド1260を実質的に囲繞する、略環状(例えば、円形リング)である。他の実施形態では、タッチパッド1260および光導波路1264は、異なるように成形されることができる。例えば、タッチパッド1260は、多角形形状(例えば、正方形、長方形、六角形等)または卵形であることができ、光導波路は、タッチパッドを実質的に囲繞する、形状(例えば、円形、卵形、多角形等)を有することができる。
トリガ、ホームボタン、およびタッチパッドは、ユーザ入力を受け取ることができる(例えば、それぞれ、引動、押下、またはタッチされることによって)。光導波路1264は、照明され、光パターンを表示することができる。いくつかの実施形態では、光導波路1264は、タッチセンサ式であって、ユーザ入力を受信することができる。トーテム1200は、ユーザによって保持されていないとき、基部1220に除去可能に取り付けられることができる。基部1220は、(例えば、壁ソケットへの)電力接続を含んでもよく、トーテムが基部1220に取り付けられると、トーテム1200を充電するために使用されることができる。
トリガの実施例
トリガ1212は、ユーザから外に向いたトーテム本体1214の上側部分上に位置することができる。トリガ1212は、タッチ表面1234と、ユーザ入力を受信し得る、タッチセンサ(図12Aには図示せず)とを含むことができる。タッチセンサは、タッチ表面1234上(またはその近傍の)ユーザの指およびタッチ表面1234上のユーザの指の移動を感知することができる。加えて、または代替として、トリガ1212は、ボタン1232を含むことができ、これを、ユーザが、押下することができる。ボタン1232は、圧力センサを含むことができ、これは、ユーザがボタン1232を押下するときを検出することができる。ボタン1232は、その静置位置から6〜8mm押下されてもよい。いくつかの実施形態では、トリガ1212は、例えば、選択、戻る、オプション等、複数のボタンを含むことができる。
トリガ1212は、例えば、Alps力センサを使用して実装されてもよい。トリガ1212(またはボタン1232)はまた、アナログまたはデジタルボタンを使用して実装されることができる。トリガ1212は、マイクロプロセッサと関連付けられてもよい。マイクロプロセッサは、トリガ1212の種々の機能のために、2つの汎用入力/出力(GPIO)ピンを留保してもよい。
いくつかの実装では、トリガ1212は、触覚的フィードバックを提供するように構成されることができる。トリガ1212は、例えば、リニア共振アクチュエータ(LRA)、偏心回転質量(ERM)、ピエゾアクチュエータ等の触覚アクチュエータを含むことができる。例えば、トリガ1212は、S−タイプLRA(例えば、アナログボタン1232上のS−タイプAlps触覚等)を採用し、振動を生成することができる。
ユーザは、種々の手のジェスチャを使用して、トリガ1212を作動させることができる。例えば、ユーザは、タッチ、スワイプ、タップ、押下等によって、トリガ1212を作動させることができる。トリガ1212は、豊富なタッチ特徴を提供することができ、種々のユーザインターフェース相互作用が、トリガ1212を作動させるために使用される異なる手のジェスチャと関連付けられてもよい。例えば、ユーザは、トリガ1212を押下することによって、ARインターフェースとVRインターフェースとの間で切り替えることができる。別の実施例として、ユーザは、トリガのタッチ表面1234をスワイプすることによって、仮想オブジェクトをユーザのFOV内外にスワイプすることができる。ユーザインターフェース相互作用はまた、作動の持続時間と関連付けられることができる。トーテム1200は、押下の持続時間を記録し、押下の持続時間に基づいて、ユーザインターフェース動作を決定することができる。例えば、長持続時間(例えば、3〜5秒等)にわたるトリガ1212の押下は、ウェアラブルシステムに、プログラム(例えば、映画等)を終了させ得る一方、トリガの迅速押下は、ウェアラブルシステムに、ユーザの視線方向における仮想オブジェクトを選択させ得る。
トリガは、トーテムの他のコンポーネントまたはユーザの姿勢と併せて作動され、ユーザインターフェース動作を実施してもよい。例えば、ユーザは、トリガ1212を押下しながら、タッチパッド1260をスワイプし、仮想オブジェクトを移動させてもよい。別の実施例として、ユーザは、トリガ1212をその右親指で押下し、その腕を右に移動させ、仮想オブジェクトを右に移動させることができる。
トリガ1212はまた、1つ以上のユーザインターフェース動作が利用可能であることのインジケーションをユーザに提供するように構成されることができる。例えば、トリガ1212が、長持続時間にわたって押下されると、ウェアラブルシステムは、ユーザが、ゲームの設定を変更することを可能してもよい。現在設定を変更することができることをユーザに示すために、ウェアラブルシステムは、触覚的フィードバック(例えば、振動等)をトリガ1212(またはトーテムの本体)上に提供してもよい。ユーザインターフェース動作が利用可能であることのインジケーションを提供することに加え、またはその代替として、触覚的フィードバックはまた、ユーザに、あるジェスチャ(例えば、タップまたは押下等)を使用してトリガ1212を作動させたことを知らせるために使用されることができる。
他の実施形態では、トリガ1212の上記に説明される機能性の一部または全部は、トーテム1200の他のボタンまたはタッチセンサ式表面によって実装されることができる。例えば、図17Bを参照して下記に説明されるように、ボタン(バンパとも称される)は、トリガ1212(またはホームボタン1256)の機能性の一部または全部を実施することができる。
トーテム1200の他の実施例は、図17Aおよび17Bを参照して説明される。
タッチパッドの実施例
トーテムは、ユーザに向かって面したトーテム本体1214の上側正面部分上に位置する、タッチパッド1260を含むことができる。タッチパッド1260は、タッチ表面1262と、光導波路1264とを含むことができる。いくつかの実施例では、タッチパッド1260の構造および/または機能性は、米国特許出願第15/683,677号(上記に述べられたように、参照することによってその全体として本明細書に組み込まれる)に説明されるものと実質的に同一または類似してもよい。図示される実施例では、光導波路1264は、タッチ表面1262を実質的に囲繞する。タッチパッド1260は、種々の相互作用可能領域を含むことができる。例えば、ユーザは、タッチ表面1262、光導波路1262を、単独で、または組み合わせて、作動させることができる。タッチ表面1262はさらに、複数の相互作用可能領域を含むことができ、各領域は、ユーザ入力(またはユーザインターフェース動作)のタイプにマッピングされる。
タッチ表面1262は、27mm〜40mmの範囲内の直径を伴う、円形表面であってもよい。タッチ表面1262はまた、例えば、卵形、長方形、三角形、菱形、不規則的等の他の形状であってもよい。ある実装では、タッチパッド1260は、50ms未満のトラフィック/パイロット(T2P)待ち時間を有してもよい。
タッチ表面1262は、光導波路1264によって実質的に囲繞されることができる。例えば、種々の実施形態では、光導波路1264は、90度を上回る、180度を上回る、270度を上回る、または最大360度のタッチ表面の周囲の角度距離に対してもよい。光導波路1264は、照明され、種々の場所および移動の光パターンを伴う、後光を表示することができる。光導波路1264は、個々の離散光源からの照明が融合されるように、タッチパッドの光源1330(例えば、LED)によって生成された光を拡散させ、後光を表示することができる。光導波路1264は、リング形状に形成される、例えば、プラスチックまたはポリマー材料から形成される、拡散光学要素を備えることができ、これは、光源1330からの光をトーテム1200の視認者に透過(および拡散)させることができる(例えば、図13A−14A参照)。光導波路は、透明または半透明であることができる。種々の実施形態では、光導波路1264は、拡散器シート、拡散器フィルム、エッチングされた導波管、粒子の層を備える透過性光学要素、不規則的表面、ホログラフ、白色表面、研磨ガラス、ポリテトラフルオロエチレン(PTFEまたはTeflon)、乳白ガラス、灰色ガラス、着色ゲル等を備えることができる。光学的に拡散性の材料から成る光導波路の実施形態は、有利には、光導波路が、離散した個々の光源(光導波路が実質的に透明である場合)として現れるのではなく、全体的に実質的に連続した光彩を有するように現れる(全ての光源が照明されるとき)ように、光源1330からの光を拡散および散布させ得る。
タッチパッドは、いくつかの赤色、緑色、青色(RGB)LED(例えば、6〜24のRGB LED等)を含むことができる。後光の光場所または移動パターンは、トーテムまたはウェアラブルシステムの他のコンポーネントとのユーザの相互作用、ウェアラブルシステムと関連付けられた進行度のステータス、ユーザの環境内のオブジェクト等の視覚的インジケーションを提供することができる。例えば、図13CのLED1383aまたは図13EのLED1394aを参照されたい。
光源は、(加えて、または代替として)電磁スペクトルの非可視部分、例えば、赤外線または紫外線内で照射する、エミッタを含むことができる。そのような実施形態では、ウェアラブルデバイス上のカメラは、対応する非可視スペクトルに敏感であってもよく、これらのエミッタによって表示される非可視光を結像することができる。故に、トーテム1200およびウェアラブルデバイスは、そのような非可視スペクトルモダリティを介して、情報を交換することができる。例えば、トーテム1200およびHMDは、非可視スペクトルモダリティを使用して、デバイスペアリング情報を交換することができる。
タッチパッド1260は、力覚コンポーネントをタッチ表面1262および光導波路1264の一部下に含むことができる。力覚コンポーネントは、タッチ表面1262または光導波路1264を介して、触覚的フィードバックをユーザに提供するための触覚アクチュエータを含むことができる。触覚的フィードバックは、単独で、または視覚的後光と組み合わせて使用され、トーテムまたはユーザの環境内のオブジェクトとのユーザの相互作用のインジケーションを提供することができる。
力覚コンポーネントはまた、タッチパッドのユーザの作動を検出するためのタッチ検出器を含むことができる。力覚コンポーネントは、タフタイプAlps LRAを使用して実装されてもよい。力覚コンポーネントは、アナログ/デジタルコンバータ(ADC)を伴う歪みゲージを含むことができる。
タッチパッド1260は、例えば、トラックポイント式ハイブリッド速度制御入力技法、ハイブリッド力および速度技法等のハイブリッド制御技法を採用することができる。タッチパッド1260は、ADCを使用して、そのような入力技法を有効にすることができる。ある実装では、タッチパッドの感度は、5ニュートン未満であってもよい。タッチパッド1260の付加的構造実施例は、図13Aおよび14Eをさらに参照して説明される。
タッチパッド1260は、種々のユーザインターフェース体験のために、豊富なタッチ特徴を提供することができる。例えば、ユーザは、タッチパッド1260(単独で、またはトーテムまたはウェアラブルシステムの他のコンポーネントと併せて)を使用して、仮想オブジェクトを移動または配向することができる。タッチパッド1260はまた、仮想キーボードとして使用され、テキストを入力することができる。
トーテムの本体の実施例
トーテム1200の本体1214は、懐中電灯(例えば、図12A参照)の形状であってもよく、本体は、より円錐台状の形状(ユーザの手の中に保持されることをより容易またはより快適にし得る)となるように、トーテムの上部に向かって外向きに角度付けられ得る、伸長シリンダを備える。本体1214は、ユーザの指のためのくぼみを含んでもよく、これは、トーテムを把持および保持することを補助し得る。図12Bは、トーテム1200の別の実施例を図示する、上面図1270である。本実施形態では、本体1214は、ユーザの掌内により適合する、または表面(例えば、テーブル)上に置かれるとき、より安定し得るように、卵円形形状である。いくつかの実施例では、トーテム1200の本体1214の装飾的外観は、2016年8月22日に出願された米国意匠特許出願第29/575,031号(上記に述べられたように、参照することによってその全体として本明細書に組み込まれる)に示され、かつ説明される、トーテムコントローラのものと実質的に同一または類似してもよい。卵形、多角形等の断面を有する、伸長本体等、本体1214のための他の形状も、可能性として考えられる。本体1214の断面は、トーテム1200がユーザの左手またはユーザの右手の中に容易に保持され得るように、実質的に対称であってもよい。
本体1214は、上側部分1242を含むことができ、これは、トリガ1212と、タッチパッド1260とを含むことができる。本体1214はまた、底部部分1244を含むことができる。底部部分1244は、トーテム1200が基部1220に除去可能に取り付けられ得るように、インターフェースを含んでもよい。例えば、底部部分1244は、トーテム1200が充電されるとき、接続インターフェース1222(例えば、USB−C接続等)を介して、基部1220に接続されてもよい。別の実施例として、底部部分1244は、基部1220を介して、別のコンピューティングデバイス(ホームコンピュータ等)に接続されてもよい。コンピュータに接続されると、ユーザは、適宜、コンピューティングデバイス上のプログラミングインターフェース(図18A−18Dを参照して下記に説明される)を介して、後光の光場所または移動パターンを構成することができる(タッチパッド1260上で)。
タッチパッド1260は、トーテム1200がユーザの手の中に保持されるとき、タッチ表面1264および光導波路1262がユーザによって容易に視認可能であるように、角度付けられることができる。水平に対するタッチパッド1260の角度は、約10〜60度の範囲内であることができる。本体1214は、そのような角度によって、より円錐台状形状をとることができるということになる。上記に説明されるように、本形状は、トーテム1200をユーザがその手の中に保持するためにより容易またはより快適にし得る。いくつかの実施形態では、水平に対するタッチパッド1260の角度は、約15〜30度の範囲内であることができる。トリガ1212は、トーテム1200がユーザの手の中に保持されるとき、ユーザの人差し指で容易に押下可能であるように、タッチパッド1260と反対に配置されることができる。
いくつかの実施形態では、底部部分1244は、照明式電力インジケータを含むことができる。照明式電力インジケータは、1つ以上のRGB LEDを含んでもよい。LED電力インジケータの光場所または移動パターンは、LEDトーテムに関する残りのバッテリまたはバッテリ充電ステータスに関連する情報を提供するために使用されてもよい。
本体1214は、触覚的フィードバックをユーザに提供するように構成されることができる。本体1214は、触覚的フィードバックを提供するための触覚アクチュエータ1760(図17A、17Bに示される)を含むことができる。触覚アクチュエータ1760は、タフタイプLRAまたはERM触覚とともに実装されてもよい。本体1214と関連付けられたコンポーネントの詳細は、図17A、17Bを参照して説明される。
ホームボタンの実施例
トーテム1200は、ホームボタン1256を含むことができる。ホームボタン1256は、トーテム1200の本体1214上に位置することができる。ユーザがホームボタン1256を作動させると、ウェアラブルシステムは、例えば、アプリケーションまたはディスプレイのメインメニューに戻る/それを開く、プログラムを終了する、アプリケーションを選択する等、種々のユーザインターフェース動作を実施してもよい。いくつかの実施形態では、ユーザがホームボタン1256を作動させると、ウェアラブルシステムは、スリープモードに入る、またはそこからウェイクアップする、ディスプレイ上の仮想コンテンツをオンまたはオフにする等してもよい。
ウェアラブルシステムは、ユーザがホームボタン1256を作動させる方法に基づいて、動作を実施してもよい。例えば、ユーザが長持続時間にわたってホームボタン1256を作動させる場合、ディスプレイは、オフにされてもよい。別の実施例として、ユーザがホームボタン1256を2回押下する場合、ディスプレイは、ディスプレイのメインページを提示してもよい一方、ユーザがホームボタンを1回押下する場合、ディスプレイは、ユーザが現在相互作用しているゲームアプリケーションのメインメニューを提示してもよい。他の機能性も、ホームボタン1256によって実装されることができ、例えば、ボタンの迅速タップは、アプリケーションランチャーユーザインターフェースを呼び出すことができ、アプリケーション内では、迅速タップは、アプリケーションのメニューを呼び出し得る、または長押下は、アプリケーションを一時停止し、アプリケーションランチャーユーザインターフェースを呼び出し得る。
ホームボタン1256は、RGB LEDインジケータを含むことができ、これは、トーテムまたはウェアラブルディスプレイの現在のステータス(オン/オフにされているかどうか等)、トーテムのバッテリステータス、ウェアラブルディスプレイ、またはウェアラブルシステムの他のコンポーネントを示すために使用されることができる。
種々の実施形態では、トーテム1200は、ホームボタン1256およびトリガ1212の両方を含む、またはこれらのユーザ入力要素のうちの1つのみ(または図17Bを参照して説明されるバンパ1266等の付加的ボタン)を含む。トーテム1200は、示されるものと異なるように構成または成形されることができる。例えば、ホームボタン1256は、トリガの一部として(本体1214の一部としてではなく)実装されてもよい。さらに別の実施例として、タッチパッド1260またはホームボタン1256は、トーテム1200の充電の進行度に関する視覚的インジケーションを提供することができる。多くの変形例が、可能性として考えられ、付随の図は、例示的実施形態を図示し、本開示の範囲を限定するように意図されない。
基部の実施例
トーテムの本体1214を参照して説明されるように、トーテム1200の本体1214は、基部1220に除去可能に取り付けられてもよい。基部とトーテムとの間のインターフェースは、充電を可能にする、トーテム内のデータにアクセスする、またはソフトウェア更新等を提供することができる。例えば、基部1220は、ユニバーサルシリアルバス(USB)プラグを含むことができ、これは、本体1214の底部部分1244上のUSBポートに差し込まれることができる。基部1220はさらに、トーテムを充電するために、電源コードを使用して電気コンセントに接続されることができる。基部はまた、有線または無線通信チャネルを使用して、パーソナルコンピュータ、テレビ、プロジェクタ等の他のコンピューティングデバイスと接続することができる。
トーテムを作動させる実施例
トーテム1200は、例えば、タッチ、スワイプ、スクロール、ダイヤル回転、クリック、押下、Dパッドエミュレーション等、種々の入力技法をサポートすることができる。いくつかの実施形態では、トーテム1200は、慣性スワイプをサポートすることができる。例えば、ユーザがタッチパッド1260上の軌道に沿ってスワイプすると、仮想オブジェクトは、ユーザの指がスワイプを停止しても、軌道に沿って移動し続け得る。トーテム1200はまた、例えば、タッチパッド1260または光導波路1264の水平または垂直縁上のスワイプ等、縁スワイプをサポートすることができる。
ユーザは、種々の手のジェスチャおよび身体姿勢を使用して、トーテム1200を作動させることができる。例えば、ユーザは、タッチパッド1260またはトリガ1212をスワイプまたはタッチすることができる。いくつかの実施形態(例えば、実施形態1210および1250等)では、トーテム1200は、6DOFのユーザの相互作用をサポートすることができる。例えば、ユーザは、トーテム1200を回転させ、ゲームアバタを回転させることができる。図17A、17Bを参照してさらに説明されるように、トーテム1200は、環境センサ1710(IMU等)を使用して、ユーザの移動を検出することができる。他の実施形態では(例えば、図12Bに示されるトーテム1200の実施例等)、トーテムは、3DOF(6DOFではなく)をサポートすることができる。これらの実施形態では、トーテムは、ユーザの前後揺、左右揺、および上下揺移動を検出および変換することができるが、ピッチ、ヨー、およびロール移動を検出および変換することができない、またはその逆である。
実施例は、ハンドヘルドデバイスを参照して説明されるが、類似技法はまた、着座およびテーブルトップ制御のために設計されるユーザ入力デバイスに適用されてもよい。
タッチパッドの例示的構造
タッチパッドの断面図
図13Aは、トーテム1200の例示的タッチパッド1260の断面図を図示する。例示的タッチパッド1260は、図12Aおよび12Bを参照して説明されるトーテム1200の一部であってもよい。タッチパッド1260は、3層、すなわち、上部層1312と、中央層1314と、底部層1316とを含むことができる。
底部層1316は、印刷回路基板(PCB)1340を含むことができる。PCB1340は、光源1330(例えば、LED)およびタッチセンサ1350等の中央層1314上の1つ以上のコンポーネントを機械的に支持し、それに電子的に接続することができる。PCB1340はまた、アーマチュア1320を支持することができる。加えて、または代替として、PCB1340は、例えば、触覚アクチュエータ(例えば、タッチパッド1260、トリガ1212、または本体1214のためのアクチュエータ等)、マイクロプロセッサ等、トーテムの他のコンポーネントに電子的に接続することができる。
タッチパッド1260の中央層1314は、タッチセンサ1350を含むことができる。タッチセンサ1350は、図12Aを参照して説明される力覚コンポーネントの実施例であってもよい。タッチセンサ1350は、種々のタッチスクリーン技術(例えば、抵抗または容量センサ技術等)を使用して、タッチパッド1260のユーザの作動を決定する、または触覚的フィードバックを提供することができる。タッチセンサ1350は、タッチ表面1262(および光導波路1264)に印加される異なるレベルの力を区別し得る、マルチタッチ技術を有効にするように構成されることができる。タッチセンサ1350は、3つの直交方向(例えば、XYZ)における感度を提供することができる。タッチセンサ1350によって採用され得る、例示的タッチスクリーン技術は、図13Bに説明される。
図13Aでは、LED1330は、タッチセンサ1350とアーマチュア1320との間に位置付けられることができる。中央層1314は、6〜12のLEDを含むことができるが、他の数(例えば、3、15、18、20等)のLEDもまた、可能性として考えられ得る。LEDは、光導波路の円周の周囲に実質的に均一に位置付けられることができる(例えば、図13Eおよび14Aにおける上面図参照)、またはいくつかのLEDは、均一間隔ではなく、相互により近接して位置付けられてもよい。LED1330は、単独で、または組み合わせて、単色LED(例えば、青紫色LED等)、2色LED、RGB LED(または他の多色LED)、白色LED、有機LED(OLED)、量子ドットLED、赤外線LED、紫外線LED等を備えてもよい。LED1330は、(例えば、PCBボード1340上の)マイクロプロセッサによって制御されてもよい。例えば、マイクロプロセッサを使用して、RGB LEDの各色(赤色、緑色、および青色)を独立して調節することによって、広範囲の色(例えば、大色域)が、RGB LEDによって生成され得る。LEDによって生成された光パターンは、トーテムまたはウェアラブルシステムとのユーザ相互作用と関連付けられ、かつユーザの環境内のオブジェクトと関連付けられることができる。いくつかの実施例では、光パターンは、後光の光場所または移動パターンとも称され得る。
アーマチュア1320は、上部層1312および中央層1314に跨架してもよい。アーマチュア1320は、中央層1314および上部層1312をともに保持することができる。アーマチュアの一部は、LED1330の上部部分に触れてもよい。
上部層は、アーマチュア1320の一部に加え、光導波路1264と、タッチ表面1262とを含むことができる。タッチ表面1262は、光導波路1264によって囲繞されてもよく、タッチセンサ1350の上部に着座してもよい。ユーザは、手のジェスチャを使用して、タッチ表面1262を作動させることができる。タッチ表面1262はまた、触覚的フィードバックをユーザに提供することができる。光導波路1264の一部は、タッチセンサ1350の上部にオーバーレイされてもよく、ユーザは、適宜、光導波路1264を作動させることができる。いくつかの実施形態では、光導波路は、タッチ可能ではない場合がある(例えば、タッチセンサ1350が光導波路1264の下にないため)。しかしながら、光導波路は、依然として、視覚的または触覚的フィードバックを提供し得る。
光導波路1264は、アーマチュア1320と上部層1312上のタッチ表面1262との間にあってもよい。光導波路1264は、第1の部分1362と、第2の部分1364とを含んでもよい。光導波路1264の第1の部分1362は、LED1330の上部にオーバーレイされてもよい。光導波路1264は、個々のLEDパッケージより大きい光導波路1264の範囲にわたって光を散布させるように、LED1330によって生成された光を拡散させることができ、これは、より魅力的視覚的外観を提供し得る。光パターンは、ウェアラブルシステムまたはタッチパッド1260とのユーザの相互作用と関連付けられた視覚的フィードバックを提供することができる。光パターンはまた、ユーザの環境内のオブジェクトと関連付けられた情報(ユーザとオブジェクトとの間の相対的位置等)を提供することができる。
光導波路1264の第2の部分1364は、タッチセンサ1350にわたって位置付けられてもよい。例えば、光導波路1264は、タッチセンサ1350にわたって0.75mm〜2mm差し込まれた状態で位置付けられてもよい。タッチセンサ1350の一部は、光導波路1264下に延在することができるため、光導波路1264は、視覚的および触覚フィードバックを提供することができるだけではなく、また、ユーザによって作動されることができる。指1310によって示されるように、ユーザは、例えば、光導波路1264をタッチ、タップ、スワイプ、または押下することによって、光導波路1264を作動させることができる。故に、ユーザが、光導波路1264を作動させると、トーテムは、例えば、光導波路上の照明された「ボタン」または光の「弧」を選択的にタップすること等のユーザインターフェース体験をシミュレートすることができる。
光導波路1264は、タッチセンサ1350にわたって位置付けられる必要はない。その結果、ユーザは、光導波路1264を作動させ、トーテムまたはウェアラブルデバイスと相互作用することが不可能である場合がある。いくつかの実装では、第2の部分1364がタッチセンサ1350にわたって位置付けられるが、プロセッサ1770またはローカル処理およびデータモジュール260は、光導波路1264上のユーザの入力を認識しないように構成されてもよい。その結果、光導波路1264は、視覚的または触覚的フィードバックを提供するために使用されてもよいが、ユーザが光導波路1264を作動させるとき、応答性ではなくなり得る。
図13Bは、タッチスクリーン技術の実施例を図示する。これらの実施例では、タッチセンサ1350(例えば、1350a、1350b、および1350)は、タッチ表面1262とPCB1340との間に狭入される。タッチスクリーン技術の実施形態1362は、タッチ技術下の力の実施例を図示する。本実施例では、タッチセンサ1350aは、感圧式センサを備えることができ、これは、タッチ表面1262上に付与される複数のレベルの力を検出することができる。ある実施形態では、タッチセンサ1350はまた、触覚的フィードバックをタッチ表面1262に中継するように構成されることができる。
実施例1364では、タッチセンサ1350bは、歪みゲージを備えてもよい。歪みゲージは、タッチ表面1262の縁下に位置してもよい。ユーザがタッチ表面1262を作動させると、タッチセンサ1350bは、タッチ表面1262の歪みを測定することによって、ユーザのジェスチャ(例えば、押下またはタップジェスチャ)を決定することができる。
実施例1366は、補間感力抵抗タッチセンサ技術(IFSR)を図示する。タッチセンサ1350cは、感力抵抗器を使用することができ、その感度のレベルは、圧力のレベルに応じて変化することができる。故に、タッチセンサ1350cは、タッチ表面1262上に付与される複数のレベルの力を検出し得る。
図13Cおよび13Dは、トーテムの例示的タッチパッドの付加的断面図を図示する。断面図1380は、上部カバー1381aと、上部カバー1381aの下の上部筐体1381bとを示す。上部カバー1381aまたは上部筐体1381bのいずれかまたはその組み合わせは、図13Aに示されるアーマチュア1320の一部であってもよい。上部筐体は、接着剤で光導波路1264(例えば、光パイプ1381c)に取り付けられてもよい。光パイプは、透明または半透明であることができる。種々の実施形態では、光パイプ1381cは、拡散器シート、拡散器フィルム、エッチングされた導波管、粒子の層を備える透過性光学要素、不規則的表面、ホログラフ、白色表面、接地ガラス、ポリテトラフルオロエチレン(PTFEまたはTeflon)、乳白ガラス、灰色ガラス、着色ゲル等を備えることができる。光学的に拡散材料から成る光パイプの実施形態は、有利には、方向1384における光出力が、離散した個々のLED(光パイプが実質的に透明である場合)として現れるのではなく、全体的に実質的に連続した光彩を有するように現れる(全てのLEDが照明されるとき)ように、LED1383aからの光を拡散および散布させ得る。
上部筐体1381bはまた、接着剤を使用して、白色Mylar1381c(または他の反射性シート)に取り付けられることができる。上部筐体は、1つ以上のLED1383aを封入することができる。例えば、上部筐体は、RGB LEDを含んでもよく、これは、赤色LED、緑色LED、および青色LEDのパッケージを含む。したがって、タッチパッドが、12のRGB LEDを含む場合、タッチパッドは、それぞれ、RGB LEDを含む、12の上部筐体構造を含んでもよい。別の実施例として、上部筐体は、タッチパッドのための全12のRGB LEDを含んでもよい。
上部カバーは、タッチカバー1383dに隣接する。タッチカバーは、図13Aに示されるタッチ表面1262の実施形態であってもよい。タッチカバーは、タッチカバー接着剤1383cを使用して、タッチボード1383に取り付けられてもよい。タッチボードは、図12Aを参照して説明される力覚コンポーネントの実施形態を含む。図13Dを参照してさらに説明されるように、接着剤スタック1386は、タッチボードの一部と上部筐体の一部との間に狭入されてもよい。接着剤スタック1386は、タッチボードの一部と上部筐体の上部部分を固定して取り付けるために使用されてもよい。
接着剤スタック1386は、2つの層、すなわち、衝撃吸収発泡体パッド(例えば、Rogers Corp.(Rogers, CT)から利用可能なPoron)と、撓曲性かつ接着剤の層とを含んでもよい。Poronパッド1387aの上部部分は、タッチボードの底部部分に取り付けられてもよく、Poronパッドの底部部分は、撓曲性かつ接着剤の層1387bに取り付けられてもよい。撓曲性かつ接着剤の層は、上部筐体に取り付けられてもよい。Poronパッドは、2つの0.2mm厚接着剤と、1つの1.00mm厚接着剤とから成ってもよい。1つの1.00mm接着剤は、2つの0.2mm厚接着剤間に位置付けられてもよい。代替として、2つの0.2mm厚接着剤のうちの一方は、1.00mm厚接着剤と他方の0.2mm厚接着剤との間にあってもよい。
図13Cに戻って参照すると、1つ以上のLED1383aが、タッチボードに取り付けられてもよい。LEDは、光を方向1382に放出することができる。光は、光パイプに到達してもよく、これは、全内部反射(TIR)を通して、光を光出力方向1384に透過させることができる。光パイプの底部部分はまた、白色Mylarの一部に取り付けられることができる。白色Mylar(または他の反射性シート)は、LEDによって放出される光の一部を反射させ、光出力方向1384における光出力の量を増加させ得る。光パイプは、光出力が、個々の離散光源ではなく、より角度的に連続した出力として現れるように、LEDからの光を拡散させ得る。
タッチパッドの底面図
図13Eは、例示的タッチパッドの底面図を図示する。タッチパッド1390は、タッチパッド1260の実施形態であってもよい。タッチパッド1390は、12のLED1394aを含むことができるが、他の数のLEDもまた、可能性として考えられる。12のLED1394aは、本実施例では、円周方向に等しく離間されるが、他の実施例では(図14Bおよび15を参照して説明される実施例等)、LED間の間隔は、必ずしも、等しくなくてもよい。12のLEDは、タッチパッドの底部上に位置してもよい。タッチパッドは、LEDを選択的に照明し、光パターンを作成することができ、これは、後光としてタッチパッドの周囲に現れ得る。
LEDは、筐体1392に取り付けられることができる。筐体は、2つの整合ピン孔と、3つのスナップ隙間1394eとを有することができる。2つの整合ピン孔は、タッチパッドの直径の反対端上にあってもよい。3つのスナップ隙間は、等しく離間されてもよい。整合ピン孔1394dおよびスナップ隙間1394eは、タッチパッドをトーテム本体に関連して配向し、位置付けるために使用されてもよい。スナップ隙間1394eはまた、タッチパッド1390をトーテム本体に固定するために使用されてもよい。
タッチパッド1390は、例えば、力撓曲スタック1394b等のタッチスクリーン技術を採用することができる。力撓曲スタック1394bの一部は、タッチボードコンポーネントエリア1394cの上部にオーバーレイされてもよい。力撓曲スタック1394bは、単独で、またはタッチセンサ1350と組み合わせて、タッチ表面1262を含んでもよい。力撓曲スタックは、例えば、押下、スワイプ、タップ、タッチ等、タッチパッド1390上のユーザ入力を検出することができる。
ある実施形態では、タッチボードコンポーネントエリアは、PCB1340を含んでもよい。タッチボードコンポーネントエリアは、力覚コンポーネント(例えば、触覚アクチュエータ等)、マイクロプロセッサ、1つ以上の通信ユニット(例えば、ADC等)等を含むことができる。
タッチパッドの上面図
図14Aは、トーテムの例示的タッチパッドの上面図を図示する。図14Aにおけるタッチパッド1260は、アーマチュア1320と、光導波路1264と、タッチ表面1262(さらに、相互作用可能領域1262aおよび1262bに分割され得る)とを含むことができる。光導波路1264は、光源(例えば、LED)1330(図14Aにおける破線に示される)の上部に位置付けられてもよい。
有利には、本実施形態では、タッチパッド1260は、3つの相互作用可能領域、すなわち、光導波路1264と、タッチ表面の第1の部分1262aと、タッチ表面の第2の部分1262bとに分割されることができる。図12および13Aを参照して説明されるように、各相互作用可能領域は、ユーザ相互作用のタイプにマッピングされてもよい。例えば、ユーザは、光導波路1264にタッチし、ブラウザ上で前/後に移動させながら、タッチ表面の第2の部分1262bをスワイプし、ウェブコンテンツを上/下に移動させることができる。ユーザはまた、タッチ表面の第1の部分1262a上で円形運動においてスワイプし、仮想オブジェクトをユーザのより近く(またはそこからより遠く)に移動させることができる。
本実施例は、3つの相互作用可能領域を含むが、トーテムは、他の実施形態では、より多いまたはより少ない相互作用可能領域を含んでもよい。例えば、タッチ表面を2つの相互作用可能領域(第1の部分1262aおよび第2の部分1262bに対応する)に分割するのではなく、タッチ表面は、4つの相互作用可能領域に分割されてもよく、各領域は、タッチ表面の象限を占有する。タッチ表面はまた、1つのみの相互作用可能領域を含んでもよい。加えて、または代替として、光導波路1264は、例えば、プロセッサ1770またはウェアラブルシステムの別のモジュールが、光導波路1264からのユーザ入力を認識するようにプログラムされ得ない、またはタッチセンサ1350が、光導波路1264下まで延在しないため、相互作用可能ではない場合がある。
タッチ領域にマッピングされた相互作用のタイプはまた、ユーザ相互作用のタイプに基づいて、カスタマイズされてもよい。例えば、ユーザが、テレビを鑑賞しているとき、タッチパッドは、4方向Dパッド(上、下、左、右)を光導波路1264上でシミュレートしてもよい。しかし、ユーザが、ウェブページをブラウズしている場合、光導波路1264は、後/前ユーザインターフェース動作をサポートしてもよい。
相互作用可能領域はまた、視覚的または触覚的フィードバックをユーザに提供することができる。例えば、タッチ表面1262は、触覚的フィードバックを提供するように構成されることができる一方、光導波路1264は、触覚的フィードバックおよび視覚的フィードバックの両方を提供することができる(例えば、LED後光の光場所または移動パターンを介して)。
光源のレイアウト
図14Bは、タッチパッドと関連付けられた光源(例えば、LED)の例示的レイアウトの概要を図示する。図14Bは、タッチパッド1450を示し、これは、12のLED(LED0、LED2…LED11として図示される)を周界上に伴う、可視円形表面1452を有する。これらの12のLEDは、それらが具体的シーケンスで照明されるとき、具体的情報を表すために使用されることができる。例えば、各LEDは、ビットを割り当てられ、したがって、12ビットワードをもたらし得る。図24B、20A、および20Bを参照して説明されるように、ウェアラブルデバイスの外向きに面した結像システム464は、LEDの表示シーケンスを捕捉することができる。ウェアラブルデバイスは、次いで、画像を分析し、情報を表示シーケンスから抽出することができる。抽出された情報は、例えば、トーテムとウェアラブルデバイスをペアリングする、トーテムを較正する等のために使用されてもよい。例えば、LED0、3、6、9が、照明されると、ウェアラブルデバイスは、ウェアラブルデバイスとトーテムとの間のペアリングが開始されることを認識し得る。故に、ウェアラブルデバイスは、その環境内の無線(例えば、Bluetooth(登録商標))デバイスを検索し、任意の新しいデバイス(LEDと関連付けられたトーテム等)が存在するかどうかを決定し得る。LEDが、多着LED(例えば、RGB LED等)であるとき、LED光パターンによって表される情報の量は、増加し得る(例えば、12ビットワードを上回る)。例えば、LED6、7、8における青色光は、トーテムがペアリングモードにあることを示し得る一方、LED6、7、8における黄色光は、トーテムが充電モードにあることを示し得る。
いくつかの実施形態では、LEDは、別個に照明される、複数のグループに分割(例えば、多重化)されてもよい。各グループは、具体的情報を表すために使用されてもよい。図14Bは、4つの例示的グループ(MUX0(1454a)、MUX1(1454b)、MUX2(1454c)、およびMUX3(1454d)として図示される)を示し、各グループは、3つのLEDを含む。例えば、MUX1のLEDが、照明されると(例えば、LED3、4、5)、ウェアラブルデバイスは、トーテムが現在トーテムの上向き移動を示していることを認識し得る一方、MUX0のLEDが、照明されると、ウェアラブルデバイスは、トーテムが左に回転されることを認識し得る等となる。
他の実施形態では、異なる数またはレイアウトの光源または多重化されたグループが、利用されることができ、異なる量の情報(例えば、12ビットと異なるワード長)は、LEDの照明されたグループまたはシーケンスによって表されてもよい。
前述のように、図12Aを参照すると、光源は、非可視スペクトル内の光(例えば、赤外線または紫外線光)を放出することができる。そのような光は、ウェアラブルデバイスによって捕捉されることができ、非可視スペクトル内の光パターンはまた、トーテムからの情報をウェアラブルデバイスに伝達するために使用されることができる。情報は、トーテムのデバイス情報(例えば、トーテムとウェアラブルデバイスをペアリングするため)、または、例えば、トーテムのステータス(例えば、低バッテリ残量であるかどうか、接続が確立されているかどうか、トーテムと現在ペアリングされているデバイス等)等の他のタイプの情報を含んでもよい。
図15は、例示的LEDレイアウトまたはLEDレイアウトからの光のパターンを図示する。本実施例では、LEDは、基本的に、例えば、北−東−南−西(NESW)座標系1592を参照して設置され、トーテムがユーザの手の中に保持されると、北は、ユーザから外に向き、南は、ユーザに向かって向き、東は、ユーザの右に向かって向き、西は、ユーザの左に向かって向き得る。座標系1592は、ある程度、回転されてもよい。例えば、列1550内のレイアウトは、基本的に、中立位置を参照して設置され、座標系1592は、回転されない。対照的に、列1570および1580内のレイアウトは、NESW座標系1592に示される基本位置から時計回りに15度回転される。
LEDレイアウトは、ユーザ調節可能であってもよい。例えば、トーテム上のタッチパッド(または光導波路)は、機械的に回転可能であってもよい。実施例として、トーテムのLEDレイアウトは、最初に、右利きユーザのために、時計回りに15度の回転を含んでもよい。しかしながら、左利きユーザが、同一トーテムを使用するとき、左利きユーザは、タッチパッドを反時計回りに30度回転させ、その親指を使用してタッチパッドとより良好に相互作用することを可能にすることができる。列1560および1580内の例示的レイアウトは、12のLEDから成ることができる。これらのLEDは、相互に隣接して設置されることができる。例えば、12LEDは、間隔を空けずに、相互の隣に設置され、パターンIに図示されるように、円形レイアウトを形成することができる。
いくつかの実施形態では、2つの近傍LEDは、その間に空間を空けて設置されてもよい(列1550および1570内のパターンによって図示されるように)。空間は、ほぼ1つのLED分のサイズであってもよい。例えば、列1550および行1540に示されるパターンDは、6つのLEDを含んでもよく、それらは、相互からほぼ同一距離離れて設置される。しかしながら、いくつかの状況では、列1550および1570内にパターンを生産するために、トーテムは、1つ以上のLEDを選択的にオフにする、または含まなくてもよい。例えば、パターンDは、12のLED(6つのLEDではなく)を含んでもよく、12のLEDのうちの6つは、パターンD内で照明されなくてもよい。対照的に、ユーザがユーザインターフェース動作を変化させる場合、パターンDに示されるような6つより多いまたはより少ないLEDが、照明されてもよい。有利には、いくつかの実施形態では、トーテムは、より少ないLEDが使用される(それらの間に間隔を伴う)ため、またはLEDが、所望の照明パターンを達成するように選択的にオフにされ得る(図15に示されるもの等)ため、バッテリ消費を節約することができる。加えて、照明されるLEDを相互から離間させることによって(物理的に、またはいくつかの中間LEDを照明しないことのいずれかによって)、ユーザは、あるユーザインターフェース動作を実施するために、その親指を精密な場所に移動させる必要がなくなり得、これは、いくつかの状況では、ユーザ疲労を低減させることができる。
LEDは、複数のグループに分割されてもよい(また、図14Bを参照して説明される例示的多重化されたグループ参照)。図15の行1510、1520、1530、および1540は、LEDをグループ化する例示的方法を図示する。例えば、行1510内のレイアウトAおよびGは、2つのグループのLEDを含み、各グループは、異なる色によって表される。行1520内のレイアウトBおよびHは、3つのグループを含み、行1530内のレイアウトC、D、およびFは、4つのグループを含み、レイアウトDおよびIは、6つのグループを含む。各グループのLEDは、例えば、類似光パターン、ユーザ相互作用に対する類似反応(例えば、全て同時に照光する)等の類似特性を有してもよい。加えて、または代替として、図14Bを参照して説明されるように、LEDの各グループは、具体的情報を表すために使用されてもよい。例えば、ウェアラブルデバイスは、その外向きに面した結像システムが、パターンB内の上弧と関連付けられた1つ以上のLEDが照光していることを捕捉すると、ユーザがビデオ記録モードに入り得ることを決定してもよい。
有利には、LEDレイアウトは、トーテムの把持方向に整合されてもよい。レイアウトA−I(黒色でハイライトされる)は、そのような実施例である。これらのレイアウトでは、ユーザがトーテムを握持すると、ユーザは、必然的に、その手の有意な調節を伴わずに、LEDのグループに到達することができる。
ある実装では、LEDの一部のみが、ユーザ相互作用可能である。LEDは、ユーザがLED(またはLEDと関連付けられた光導波路)を作動させ得る場合、相互作用可能であってもよい。例えば、パターンEは、4つのLEDグループ、すなわち、上弧、下弧、左弧、および右弧を含み、各グループは、3つのLEDを有する。ユーザは、上および下弧(例えば、これらの弧の上方の光導波路を押下することによって)を作動させることが可能であり得るが、左および右弧を作動させることは不可能である。しかしながら、左および右弧は、依然として、単独で、または上および下弧と組み合わせて、視覚的または触覚的フィードバックを提供することができる。他のレイアウトに適用される類似考慮点は、図15に示される。
LEDの物理的位置に加え、またはその代替として、図15におけるパターンは、LEDによって照明される光パターンであることができる。例えば、トーテムは、12のLEDのリングを照明することによって、パターンEを提示する一方、12のLEDリング内の1つおきのLEDを照明することによって、パターンDを提示することができる。別の実施例として、ユーザが、タッチパッドまたは光導波路を回転させるのではなく、トーテムが、ユーザが左利きまたは右利きかどうかに基づいて、後光の場所を調節するようにプログラムされることができる。トーテムは、左利きユーザのために、弧を1時位置に表示するが、右利きユーザのためには、同一弧を11時位置に表示してもよい。弧は、例えば、ウェブページを上向きに移動させる等、ユーザインターフェース動作と関連付けられてもよい。
ユーザ入力デバイスの多くの実施形態は、トーテム1200の観点から説明されるが、これは、例証のためであって、ウェアラブルシステム200と使用可能なユーザ入力デバイスのタイプに関する限定ではない。例えば、他の実施形態では、ディスプレイ画面(またはその変形例)が、照明形状およびパターンをユーザに表示するために使用されてもよい。例えば、これらの実施形態のうちのいくつかでは、スマートフォンが、トーテムとして活用されてもよく、種々の形状およびパターンをその画面上に表示してもよい。いくつかの実施例では、トーテム1200は、ディスプレイ画面を含むことができ、これは、タッチセンサ式(スマートフォンの表面に類似する)であってもよい。ディスプレイ画面を備える、いくつかのそのような実施形態では、照明式光導波路1264の使用は、ディスプレイ画面が本明細書に説明される照明パターンおよび遷移シーケンスを表示するために使用され得るため、随意であってもよい。
光パターンの場所および移動の実施例
図16Aおよび16Bは、トーテム(または他のタイプの発光ユーザ入力デバイス)の後光からの光放出の例示的場所または移動パターンを図示する。上記に説明されるように、後光は、タッチパッド領域を囲繞する、トーテムの照明される部分を構成し得る。図16Aおよび16Bに示される実施形態に図示されるように、光導波路は、後光が、個々の離散光源ではなく、リングまたはリングの弧状部分として現れるように、個々の光源によって放出される光を実質的に拡散させる。
後光によって投影され得る、光パターンの場所および移動は、例えば、形状、色、明度、位置、サイズ、移動、動画、他の視覚的効果(例えば、明滅または点滅、フェードイン、フェードアウト)等の1つ以上の特性を含むことができる。例えば、図16Aは、4つの例示的パターンを図示する。パターン1612では、後光は、明るい桃色を2時位置に伴う、薄青色として示される。パターン1614における後光は、4つの着色弧、すなわち、黄色、緑色、青色、および赤色を有し、これは、(それぞれ)タッチパッドの上、下、左、および右位置に対応する。パターン1616は、濃青色後光を示し、パターン1618は、薄青色弧を上部に伴う、濃青色後光を示す。
後光の光場所または移動パターンは、視覚的フィードバックをユーザおよびユーザの環境内の人物に提供することができる。光場所または移動パターンは、例えば、ユーザの環境、ユーザの特性、オブジェクトと関連付けられた情報、プロセス、ウェアラブルシステムのコンポーネント、ウェアラブルシステムとのユーザの相互作用等のコンテキスト情報に基づいて決定されてもよい。
ユーザの環境に基づいて後光を生成する実施例として、トーテム1200内の環境センサ1710(図17A、17Bを参照して下記に説明される)は、光センサであることができ、これは、ユーザが明または暗環境に存在するかどうかを検出することができる。ユーザが暗環境に存在する場合、トーテム1200は、後光をより明るい色(白色等)で表示し、ユーザが後光を知覚することに役立つことができる。他方では、ユーザが明環境に存在する場合、トーテム1200は、より暗い色を表示し、ユーザが後光をユーザの環境内の周囲光から区別することに役立ってもよい。別の実施例として、暗い部屋内では、後光内の光の強度は、暗い環境内で照明される後光を知覚することが容易であるため、減少されてもよい(例えば、「夜間モード」)。逆に言えば、明るい環境(例えば、太陽光下の屋外)では、後光内の光の強度は、後光パターンが明るい環境において可視であるように増加されてもよい。
後光におけるパターンもまた、例えば、ユーザの生理学的データ、人口統計情報(例えば、年齢、場所、職業、選好等)等のユーザの特性に基づくことができる。例えば、ユーザがレースゲームをプレーしているとき、トーテムは、ユーザの運転方向に対応する後光を表示することができる。後光の色は、最初に、赤色であってもよい。しかしながら、ウェアラブルシステム(例えば、トーテムまたはHMD上の環境センサ等)が、ユーザの心拍数または呼吸数が閾値条件を超えることを検出すると、ウェアラブルシステムは、ユーザが感情的に高揚状態にあることを決定してもよい。故に、ユーザの感情状態を沈めるために、ウェアラブルシステムは、後光の色を赤色から青色に変化させてもよい(薄青色弧が運転方向を図示する、パターン1618等)。
オブジェクトと関連付けられた情報は、例えば、オブジェクト、オブジェクトの特性(例えば、機能、タイプ、場所、形状、配向等)等と関連付けられた通知またはアラートを含むことができる。実施例として、オブジェクトは、HMDによってユーザに表示される、仮想電子メールアプリケーションであってもよい。仮想電子メールアプリケーションによって受信された新しい電子メールが、虹色光パターンをトーテム上に有する後光によって、ユーザに示されてもよい。別の実施例として、後光は、オブジェクトがユーザの環境内で知覚可能であるかどうかのインジケーションであってもよい。例えば、宝探しゲームでは、後光は、宝の場所に対応してもよい。宝がユーザの正面右位置に位置する場合、トーテムは、後光を光導波路の1時の位置に表示してもよい(例えば、パターン1612参照)。さらに別の実施例として、オブジェクトがユーザによって相互作用不可能である場合、ウェアラブルシステムは、後光を表示しないように構成されてもよい。
図20A−21Eを参照して説明されるように、後光はまた、プロセスを誘導する、またはプロセスのステータスを示すために使用されることができる。例えば、ウェアラブルシステムは、トーテムと別のデバイスをペアリングするために、コンピュータビジョンアルゴリズムを適用し、後光の場所を分析することができる。ウェアラブルシステムはまた、コンピュータビジョンアルゴリズムを使用して、光パターンの外観を分析し、ユーザの環境内のトーテムを較正することができる。ペアリングまたは較正ステータスが完了すると、トーテムは、パターン1616を表示し、ユーザに、プロセスが完了されたことを示してもよい。
後光はさらに、ウェアラブルシステムのコンポーネントと関連付けられた情報を示すために使用されることができる。例えば、トーテムは、電力をウェアラブルデバイスに提供するために使用される、バッテリパックを位置特定するために使用されてもよい。本実施例では、バッテリパックは、電磁エミッタを含んでもよい一方、トーテムは、電磁センサを含んでもよい。電磁センサは、電磁エミッタによって生成された磁場を検出し、適宜、トーテムとバッテリパックとの間の相対的位置を計算することができる。トーテムによって表示されるような後光は、トーテムとバッテリパックとの間の相対的位置に対応し得る(ユーザがバッテリパックを見出すことに役立つ)。例えば、大弧を3時位置に伴う後光は、バッテリパックがユーザの近傍かつユーザの右にあることを示し得る。しかしながら、小弧を3時位置に伴う後光は、バッテリパックがユーザから遠く離れているが、依然として、ユーザの右にあることを示し得る。別の実施例として、ウェアラブルデバイスの電力が少なくなると、トーテムは、小弧を伴う後光を表示し、バッテリがなくなりそうであることを示してもよい。バッテリパックの観点から説明されるが、ウェアラブルシステムの任意のコンポーネントまたはその他(例えば、ユーザの車の鍵)が、トーテムによって追跡され得る、電磁エミッタを含むことができ、これは、後光を照明し、ユーザがコンポーネントを見出すことを補助する。
後光はまた、ウェアラブルシステムとのユーザの相互作用のインジケーションを提供することができる。有利には、本インジケーションは、ユーザの環境内の人物に、ユーザの現在の相互作用を知らせ得る。例えば、ユーザがビデオを記録しているとき、後光は、赤色でフリッカしてもよい。故に、ユーザの隣の人物には、本フリッカ赤色光パターンが見え、ユーザのビデオ記録体験を中断させるべきではないことを把握することが可能となるであろう。別の実施例として、ユーザが、ゲーム内のあるレベルをクリアすると、後光は、ゲームのレベルと同一色で照光し、ユーザの友人に、ユーザがそのレベルをクリアしたことを示し得る。
視覚的フィードバックに加え、またはその代替として、後光は、ユーザ相互作用を誘導することができる。例えば、後光は、4つの弧(上、下、左、および右)を異なる色(効果1614によって図示されるように)で示し、ユーザがトーテムのタッチパッドをDパッドとして使用することができることを示してもよい。別の実施例として、ユーザがディスプレイ220を使用してテレビプログラムを鑑賞している間、トーテムは、図16Bにおける後光パターン1662を提示してもよい。パターン1662は、赤色弧と、青色弧とを含む。赤色弧および青色弧のための弧長は、約0.25πであってもよい。しかしながら、ユーザがトーテムを作動させる(トーテムのタッチ表面をタップすること等によって)と、トーテムは、弧のフェードイン効果(図16Bにおけるプロセス1によって図示されるように)を提示してもよい。フェードイン効果の結果、赤色弧および青色弧の長さは、パターン1664に示されるように、約0.25πから0.75πに増加され得る。赤色および青色弧の明度もまた、フェードイン効果に起因して増加し得る。本増加された明度および弧長は、ユーザに、ユーザがタッチ表面上で左または右にスワイプすることができることのより明確なインジケーションを提供し得る。しかし、トーテムが、ユーザが閾値持続時間にわたってトーテムと相互作用していないことを検出すると、トーテムは、図16Bにおけるプロセス2によって図示されるように、フェードアウト効果を提示してもよい。故に、後光は、パターン1664から1662に変化される。その結果、弧のサイズおよび弧の明度は、減少するであろう。有利には、弧のサイズおよび弧の明度を低減させることによって、トーテムは、ユーザがトーテムと相互作用していないとき、バッテリ消費を低減させ得る。
いくつかの実施形態では、トーテム1200は、触覚的、聴覚的、視覚的、または他の効果と併せて、後光を提示し、コンテキスト情報と関連付けられた情報を提供する、またはユーザの相互作用を誘導することができる。
トーテムの他のコンポーネント
図17Aおよび17Bは、トーテム1200の例示的コンポーネントを図示する。例示的トーテム1200は、図12Aおよび12Bを参照して説明されるように、タッチパッド1260(タッチ表面1262と、光導波路1264とを含み得る)と、トリガ1212と、トーテム本体1214とを含むことができる。光導波路1264は、ユーザ相互作用可能領域(例えば、タッチセンサ式)を備えてもよく、少なくとも部分的または完全に、タッチ表面1262を囲繞してもよい。トーテム1200はまた、種々のコンポーネントを含むことができ、そのうちの少なくともいくつかは、トーテムの本体1214の内側に配置されてもよい。これらのコンポーネントは、下記にさらに説明され、環境センサ1710と、バッテリ1720と、近距離通信(NFC)インターフェース1732と、ネットワークインターフェース1734と、触覚アクチュエータ1760と、プロセッサ1770とを含むことができる。接続インターフェース1222は、本体1214の底部に配置され、例えば、トーテム1200を基部に除去可能に取り付けることができる。接続インターフェース1222は、電力を提供し、バッテリ1720を充電し、通信リンクをトーテムのコンポーネントと外部デバイス(例えば、コンピューティングデバイス)との間に提供するために使用されることができる。
バンパ
トーテム1200は、図17Bに示される実施例では、トーテムの正面端、トリガ1212の上方、かつタッチパッド1260の下方に位置する、ボタン1266(バンパと称される)を含むことができる。バンパ1266は、ユーザがその人差し指を静置するために人間工学的に快適な場所を提供し得る。バンパ1266は、例えば、押下可能ボタン、容量タッチセンサ、力覚要素等として実装される、タッチセンサ式表面を備えることができる。
図17Bに示される実施例では、ユーザは、主に、3つの指を使用して、トーテム1200を作動させることができ、例えば、親指でホームボタン1256またはタッチパッド1260を作動させ、人差し指でバンパ1266を作動させ、中指でトリガ1212を作動させる。そのような3つの指によって作動可能なトーテムは、ユーザが、1つの指のみの過剰かつ疲労をもたらす使用を伴わずに(デスクトップコンピュータのためのマウス設定を用いて生じ得るように)、迅速かつ効率的に、ユーザ入力を提供することを可能にすることができる。異なるボタン1212、1256、1266は、例えば、ユーザが、アプリケーション内で作業中である、アプリケーションランチャーをスクロール中である、環境内のオブジェクトを選択中である等かどうかに応じて、異なる機能性を提供することができる。ある場合には、ユーザは、単に、人差し指を使用して、バンパの押下またはトリガの引動間を往復して切り替えてもよい。
バンパ機能性の実施例として、ユーザがアプリケーションを見ている間、バンパをタップすることは、そのアプリケーションのためのオプションメニューを呼び出すことができる一方、バンパの長押下は、環境内の仮想オブジェクトのための操作シーケンスをアクティブ化することができる。例えば、バンパの長保持は、オブジェクトを握持することができ、トーテム1200をオブジェクトに向かって向けながらのバンパの長押下は、オブジェクトの直接操作をアクティブ化することができる(例えば、オブジェクトを移動または再配向する)。操作シーケンスにおけるバンパのタップ(またはトリガの引動)は、シーケンスを終了させることができる。
環境センサ
環境センサ1710は、ユーザの周囲の環境のオブジェクト、刺激、人々、動物、場所、または他の側面を検出するように構成されることができる。環境センサは、画像捕捉デバイス(例えば、カメラ)、マイクロホン、IMU、加速度計、コンパス、全地球測位システム(GPS)ユニット、無線デバイス、ジャイロスコープ、高度計、気圧計、化学センサ、湿度センサ、温度センサ、外部マイクロホン、光センサ(例えば、露光計)、タイミングデバイス(例えば、クロックまたはカレンダ)、またはその任意の組み合わせまたは副次的組み合わせを含んでもよい。いくつかの実施形態では、環境センサはまた、種々の生理学的センサを含んでもよい。これらのセンサは、心拍数、呼吸数、ガルバニック皮膚応答、血圧、脳波状態等のユーザの生理学的パラメータを測定または推定することができる。環境センサはさらに、レーザ、可視光、光の不可視波長、または音(例えば、可聴音、超音波、または他の周波数)等の信号を受信するように構成される、放出デバイスを含んでもよい。いくつかの実施形態では、1つ以上の環境センサ(例えば、カメラまたは光センサ)は、環境の周囲光(例えば、輝度)を測定する(例えば、環境の照明条件を捕捉する)ように構成されてもよい。タッチセンサ、歪みゲージ、縁石検出器、または同等物等の物理的接触センサもまた、環境センサとして含まれてもよい。
環境センサ1710によって入手された情報は、トーテム上に表示される後光の光場所または移動パターンを決定するために使用されてもよい。例えば、環境センサは、GPSセンサまたは電磁センサ(物理的オブジェクトと関連付けられた電磁信号を検出するため)を使用して、ユーザとユーザの環境内の物理的オブジェクトとの間の相対的位置を決定することができる。トーテムは、後光を提示してもよく、その場所は、物理的オブジェクトの場所に対応し得る。例えば、オブジェクトが、ユーザの正面にある場合、トーテムは、後光を光導波路1264上の12時方向に提示することができる。
加えて、または代替として、環境センサ1710によって入手された情報は、1つ以上のユーザインターフェース動作のために使用されることができる。例えば、トーテム1200は、IMUを使用して、トーテムの6DOF移動を検出することができる。例えば、ユーザが、ゲームをプレーしながら、トーテム1200を回転させると、ユーザによって制御される(およびウェアラブルデバイスを介してユーザに表示される)、アバタ(または他の仮想オブジェクト)は、IMUによって入手されたデータ移動に基づいて、適宜、回転することができる。トーテム1200を移動または回転させることに加えて、またはその代替として、ユーザは、入力をタッチパッド1260上に提供することができる。例えば、ユーザに向かった、またはそこから離れる、ユーザの親指の移動(例えば、トーテムの長軸に沿って)は、仮想オブジェクトを、ユーザに向かって、またはそこから離れるように移動させることができる。タッチパッド1260上でのユーザの親指の横方向における往復移動は、仮想オブジェクトのサイズをスケーリングすることができる(例えば、より大きいサイズからより小さいサイズに、またはその逆に)、またはタッチパッドの周囲のユーザの親指の回転は、仮想オブジェクトを回転させることができる。
本実施例では、環境センサは、トーテム1200上に位置するが、いくつかの実施形態では、環境センサは、本明細書に説明されるウェアラブルシステムの他のコンポーネントに位置してもよい。例えば、環境センサ(カメラまたは生理学的センサ等)は、ウェアラブルシステム200(図2に示される)のディスプレイ220の一部であってもよい。
バッテリ
バッテリ1720は、トーテム1200のための電力を貯蔵する。トーテムは、プロセッサ1770を使用して、バッテリ1720の現在のステータスを決定することができる。例えば、プロセッサ1770は、バッテリ1720内に残っている電力の量、バッテリ1720が現在使用されているかどうか、およびバッテリ1720の残りの寿命(バッテリ1720が交換される必要があろうとき等)を測定および計算することができる。図21A−21Eにさらに説明されるように、バッテリ1720の現在のステータスは、光導波路1264、ホームボタン1256、トーテム本体1214の底部部分1244(例えば、図12Aに示される)上に位置するLED電力インジケータ、またはディスプレイ上に提示される、視覚的フィードバックを介して、可視化されてもよい。
トーテム1200はまた、プロセッサ1770を使用して、トーテムの電力消費レベルを決定することができる。例えば、トーテムは、ある光シグネチャを出力するために要求される推定される電流に基づいて、電力消費を推定することができる。光シグネチャは、プロセス、ステータス、オブジェクト、またはユーザ相互作用のインジケーションと関連付けられた後光のある光場所または移動パターンを含んでもよい。光シグネチャと関連付けられた推定される電流の実施例として、トーテム1200は、3または6DOF較正を実施するために、5.6mA、ユーザの環境内のオブジェクトを見出す、または方向を示すために、48mA、および無線(例えば、Bluetooth(登録商標))ペアリングを実施するために、54mAを要求し得る。光シグネチャのために推定される電流の別の実施例として、14.85mAの電流が、バッテリが15%未満であることのインジケーションを提供するために消費され得、21.6mAがトーテムがスリープモードまたはアイドル状態にあることを示すために使用され得、72.4mAの電流が、着信通知(例えば、新しいメッセージ等)を提供するために供給され得る。
これらの推定される電流は、単なる実施例である。必要とされる具体的電力の量は、使用されるLEDのタイプ、LEDの色、後光の光パターンの場所および移動等の種々の要因に依存し得る。例えば、トーテムバッテリ1720は、タッチパッド1260の全てのRGB LEDが、緑色を100%明度で表示するのではなく、常時、白色を100%明度で表示するように設定される場合、2時間もより早く消耗され得る。これは、RGB LEDが緑色を表示するとき、LEDの1/3(例えば、RGB LED内の緑色LED)のみが、利用されるが、RGB LEDが白色を表示するとき、RGB LED内の全てのLEDが、利用されるためである。
全体的電力消費を低減させるために、LED(特に、相互作用可能なLED)は、タッチパッド上のLEDの総数を低減させるように離間されてもよい。例えば、トーテムは、図15における列1550および1570に示されるレイアウトを採用してもよい。有利には、いくつかの実施形態では、LEDを離間させることによって、電力消費は、最大50%低減され得る。電力消費の具体的低減の量は、LEDのレイアウトに依存し得る。例えば、図15におけるパターンDは、パターンDが照明されているより少ないLEDを有するため、パターンAより低い電力消費を有し得る。別の実施例として、電力消費を低減させるために、トーテムは、EDをより低い明度(例えば、<40%明度等)で起動することができる。
トーテムは、ユーザが相互作用するオブジェクトに基づいて、電力消費を管理することができる。トーテムは、アクティブユーザインターフェースオプションを有していない、LEDをオフにすることができる。例えば、トーテムは、図15に示されるLEDレイアウトEを使用して、Dパッドをシミュレートしてもよい。しかしながら、ゲームの間、下向きボタンは、あるレベルでは、ディスエーブルにされてもよい。故に、トーテムは、下弧を表示しないように構成されてもよい。加えて、または代替として、トーテムは、トーテム、ディスプレイ、またはウェアラブルシステムの他のコンポーネントのステータスに基づいて、電力消費を管理することができる。例えば、トーテムは、ある量の不活動を検出後、後光をオフにすることができる。トーテムは、IMUによって入手されたトーテムの移動データの量を計算することによって、そのような検出を行うことができる。
いくつかの実施形態では、ウェアラブルシステムは、バッテリパックを含んでもよく、これは、ユーザに取り付けられてもよい(例えば、ユーザの腰部等に)。バッテリパックは、トーテムまたはウェアラブルデバイスに接続され、電力を供給してもよい。バッテリ1720は、バッテリパックの一部であってもよい、またはバッテリパックと接続して使用され、電気をトーテム1200に供給してもよい。
近距離通信(NFC)インターフェースおよびネットワークインターフェース
NFCインターフェース1732およびネットワークインターフェース1734は、トーテムが、例えば、別のトーテム(または他のユーザ入力デバイス)、ウェアラブルディスプレイ、パーソナルコンピュータ、ヘッドホン、キー、サーバ、または別の物理的オブジェクト等の標的オブジェクトとペアリングまたは通信することを可能にするように構成されることができる。NFCインターフェース1732は、短距離無線通信のために使用されることができる(トーテムが標的オブジェクトから10cmまたはそれ未満の距離内にあるとき等)。いくつかの実施形態では、NFCは、NFC対応デバイス、例えば、トーテムおよびHMDが、相互に近接して(約10cm以内)位置付けられ、情報を無線で交換するときの2つのループアンテナ間の電磁誘導を採用する。本情報の交換は、ISO/IEC18000−3エアインターフェースを経由して、106〜424Kビット/秒に及ぶレートで、13.56MHzの地球規模で利用可能な非ライセンス無線周波数ISM帯域内で動作されてもよい。種々の通信プロトコルおよびデータ交換フォーマットが、NFCのために使用されてもよい。いくつかの非限定的実施例は、NFCフォーラムおよびGSMAグループ等によって定義された規格である、ISO/IEC14443およびFelicia、ISO/ICE18092を含む。
ネットワークインターフェース1734は、ネットワークを介して、接続を確立し、標的オブジェクトと通信するように構成されることができる。ネットワークは、LAN、WAN、ピアツーピアネットワーク、無線周波数、Bluetooth(登録商標)、Wi−Fi、クラウドベースのネットワーク、または任意の他のタイプの通信ネットワークであってもよい。
例えば、トーテムおよびウェアラブルデバイスは、例えば、Bluetooth(登録商標)低エネルギー(BLE)等の無線通信プロトコルを使用して、ペアリングされてもよい。BLEは、いくつかの実施形態では、BLEオーディオストリーミングの間、帯域幅を維持することができるため、有利であり得る。図20A−20Cを参照してさらに説明されるように、種々の技法が、ウェアラブルデバイスとトーテムをペアリングするために使用されてもよい。例えば、ウェアラブルシステムは、外向きに面したカメラによって取得されるトーテムの画像を分析することによって、トーテムによって提示されるある光パターンを検出することができる。光パターンの検出は、ウェアラブルシステムをトリガし、ペアリングプロセスを開始することができる。ペアリングプロセスの間、ユーザは、ダイアログボックスまたはユーザインターフェース(UI)ウィザードを介して、ウェアラブルディスプレイと相互作用し、トーテム、ウェアラブルディスプレイ、トーテムとウェアラブルディスプレイとの間で共有される情報のタイプ、通信チャネルのタイプ等と関連付けられた設定およびパラメータを規定してもよい。
本実施例では、NFCインターフェース1732およびネットワークインターフェース1734は、別個のコンポーネントとして図示されるが、いくつかの実施形態では、NFCインターフェース1732およびネットワークインターフェース1734は、同一通信デバイスまたはシステムの一部であってもよい。
触覚アクチュエータ
トーテム1200は、触覚アクチュエータ1760を含むことができる。図12Aを参照して説明されるように、触覚アクチュエータ1760は、触覚的フィードバックをユーザに提供することができる。1つ以上の触覚アクチュエータ1760が、トーテム1200内に実装されてもよい。触覚アクチュエータは、トリガ1212、タッチパッド1260、またはトーテム本体1214内に位置してもよい。
触覚的フィードバックは、ユーザの相互作用、オブジェクトまたはユーザと関連付けられたコンテキスト情報、トーテムまたはウェアラブルデバイスの他のコンポーネントのステータス等に基づいて、提供されてもよい。
プロセッサ
ハードウェアプロセッサ1770は、環境センサ1710によって入手されたデータを処理するように構成されることができる。プロセッサ1770はまた、NFCインターフェース1732またはネットワークインターフェース1734を介して、データを別のデバイス(ウェアラブルディスプレイまたは別のペアリングされるデバイス等)から受信し、そこに送信することができる。プロセッサ1770は、これらのデータを分析し、所与の時間における後光の場所または移動パターンを決定することができる。いくつかの実施形態では、プロセッサ1770は、別のコンピューティングデバイス(例えば、ウェアラブルデバイス、遠隔サーバ、またはパーソナルコンピュータ等)と協働し、分析してもよい。例えば、プロセッサ1770は、環境センサ1710を使用して、ユーザの移動を検出してもよい。プロセッサ1770は、さらなる分析のために、ユーザの移動データをローカル処理およびデータモジュール260または遠隔処理モジュール270にパスすることができる。プロセッサ1770は、分析の結果をローカル処理およびデータモジュール260または遠隔処理モジュール270から受信することができる。例えば、プロセッサ1770は、ゲーム内の競争者の位置および移動軌道に関する情報を受信してもよい。本情報に基づいて、プロセッサ1770は、LEDに、競争者の位置および移動軌道に対応する後光を表示するための光を放出するように命令することができる。
ハードウェアプロセッサ1770は、トーテム1200のユーザの作動からの種々のユーザ入力を処理することができる。例えば、ハードウェアプロセッサ1770は、図12A−17Bを参照して説明されるように、タッチパッド1260、トリガ1212、ホームボタン1256、バンパ1266等上のユーザ入力を処理することができる。実施例として、ハードウェアプロセッサは、タッチセンサからの信号を処理することによって、タッチパッド1260上のユーザの手のジェスチャを検出することができる。本明細書に説明されるように、ハードウェアプロセッサ1770は、ユーザの入力を処理し、トーテム1200の他のコンポーネント(例えば、LEDまたはアクチュエータ1760等)に、トーテム1200のユーザの作動のインジケーションを提供するように命令することができる。
接続インターフェース
図12Aを参照して説明されるように、接続インターフェース1222は、別のデバイスとの接続を確立するために使用されてもよい。接続は、有線接続であってもよい。例えば、接続インターフェース1222は、USBコネクタを備えてもよい。接続インターフェース1222はまた、例えば、USB−Bタイプポート、USB−Aタイプポート、マイクロUSB、またはUSBタイプCポート等のUSBポートを備えてもよい。接続インターフェース1222はまた、充電のために電源に接続する電源コードを含むことができる。
図17Aおよび17Bに図示される例示的コンポーネントは、非限定的実施例であって、トーテム1200は、図示されるものより少ないまたはより多いまたは異なるコンポーネントを含むことができる。例えば、トーテム1200は、NFCインターフェース1732を有していなくてもよい。別の実施例として、トーテム1200は、光(赤外線光等)を放出するように構成される、光学エミッタ、または磁場(例えば、電磁追跡のために使用される)を生成または感知するように構成される、電磁エミッタ等を含むことができる。さらに別の実施例として、NFCインターフェース1732およびネットワークインターフェース1734は、同一通信システムの一部であってもよい。
後光の光パターンの場所および移動を構成する実施例
本明細書に説明される照明される後光は、ウェアラブルシステムのユーザ、開発者、または別のエンティティによってカスタマイズされることができる。例えば、ウェアラブルシステムのユーザは、後光の光パターンの場所および移動と関連付けられた選好を設定することができる。選好は、図16Aおよび16Bを参照して説明されるコンテキスト情報と関連付けられてもよい。実施例として、ユーザは、システム通知(低バッテリステータス等)と関連付けられた後光の色を青色に設定する一方、ゲームオブジェクトと関連付けられた色を赤色に設定することができる。ユーザは、単独で、またはトーテムと組み合わせて、ウェアラブルデバイスを介して、その選好を設定することができる。ユーザの選好に基づいて、トーテムは、ユーザがウェアラブルシステムと相互作用するとき、照明される後光を自動的に提示することができる。いくつかの状況では、ユーザは、トーテム(図12Aに示されるトリガ1212等)を作動させることによって、または姿勢を介して、照明される後光をオフにすることができる。例えば、外向きに面した結像システム464は、後光をオフにすることと関連付けられたユーザの手のジェスチャを捕捉することができる。ウェアラブルシステムは、コンピュータビジョンアルゴリズムを使用して、手のジェスチャを外向きに面した結像システムによって入手された画像から認識し、適宜、トーテムに、照明される後光をオフにするように命令することができる。
後光の光パターンの場所および移動はまた、アプリケーションプログラミングインターフェース(API)を使用して構成されることができる。図18A−18Dは、後光の光場所または移動パターンを構成するための例示的プログラミングインターフェースを図示する。APIは、ユーザまたは開発者によって相互作用され、トーテムの後光の光パターンを設定することができる。図18Aは、トーテムの可視化1802を含む、APIを示す。トーテムの可視化1802は、可視化タッチパッド1804上に表示される後光1810の画像を含む。本実施例では、後光1810の長さは、0.25に設定され、これは、可視化タッチパッド1804の上部円周の約4分の1であることができる。後光1810の端点は、12時位置および3時位置である。
プログラミングインターフェース1800は、アプリケーションバー1830を含むことができる。アプリケーションバー1830は、後光の光パターンが構成される、アプリケーションのタイプを含むことができる。例えば、図18Aでは、プログラミングインターフェース1800のユーザは、ゲームアプリケーションと関連付けられた光パターンを構成している。ユーザはまた、ウェブアプリケーション、システムアプリケーション、場面(例えば、環境内のオブジェクトの場所等)、ユーザの特性(例えば、ユーザが右利きまたは左利きであるかどうかに基づいて、後光のパターンを関連付ける等)等と関連付けられた光パターンを構成することができる。
プログラミングインターフェース1800はまた、弧構成タブ1820を含むことができる。弧構成タブ1820は、後光の形状(例えば、弧、リング等)、サイズ(例えば、角度弧長)、色、視覚的効果、または配向(例えば、N、S、E、またはW)を構成するための種々のオプションを含むことができる。視覚的効果は、フェードイン、フェードアウト、点滅、明滅、時計回りまたは反時計回り回転等を含むことができる。例えば、プログラミングインターフェース1800は、後光1810(または後光の一部)とフェードインまたはフェードアウト効果を関連付けることができる。プログラミングインターフェース1800はまた、後光の弧長、例えば、円周の1/4から円周の3/4に変化させることができる。また、後光1800の回転(例えば、時計回りから反時計回りに)を変化させる、または後光1800の場所(例えば、タッチ表面の右上角から右下角に)を変化させることができる。
弧構成タブ1820を使用した後光の光場所または移動パターンにおける構成の実施例として、図18Bは、弧の長さが−0.25に設定されるときの例示的後光1812を示す。本実施例では、後光1812における弧の長さは、タッチ表面の円周の約3/4である。後光1812の端点は、9時位置および6時位置である。
プログラミングインターフェース1800はまた、図18Cに示される色選択ツール1830を含むことができる。色選択ツール1830は、検索バー1832を含むことができ、プログラミングインターフェースのユーザは、後光の色を入力することができる。後光の色は、ハイパーテキストマークアップ言語(HTML)色コードのフォーマットで入力されてもよい。色選択ツール1830はまた、色調節パネル1834を含むことができ、ユーザは、色の飽和、明度、および色相を調節することができる。色選択ツール1830はまた、RGBツール1836を含むことができ、これは、RGBおよび黒色/白色間の相対的比率に基づいて、色を選択することができる。ユーザは、ポインティングデバイス(例えば、マウス)を使用して、色、飽和、明度、色相等を色選択ツールのパネルから選択することができる。
図18Cに示される実施例では、ユーザは、後光1814の色を青色に設定している。ユーザはまた、色選択ツール1830を使用して、後光1814の色を変化させる、または色調節パネル1834を使用して、選択された色の飽和、明度、または色相を調節することができる。いくつかの実施形態では、後光の色は、例えば、テーマまたはスタイルシートに基づいて、事前に設定されてもよい。ウェアラブルシステムは、システムデフォルト色に基づいて、またはコンテキスト情報に基づいて、色を事前に設定してもよい。プログラミングインターフェース1800のユーザは、色選択ツール1830を使用して、事前に設定された色を変化または調節することができる。
図18Dは、プログラミングインターフェース1800の別の部分を図示し、これは、可視化タブ1842と、ソースコードタブ1844と、パターン調節ツール1850とを含む。
パターン調節ツール1850は、後光を構成するために使用されることができる。例えば、プログラミングツールのユーザは、弧長、回転、および色と関連付けられたスライダを調節し、後光の種々の視覚的効果を提供することができる。ユーザはまた、x、y、z座標値を後光に設定することによって、後光の位置および回転を調節することができる(変換タブ1852に図示されるように)。ユーザはまた、フェードイン/フェードアウト効果等、トーテムと関連付けられた照明および移動効果を調節することができる。
可視化タブ1842は、パターン調節ツール1850、弧構成タブ1820、または色選択ツール1830によって作成された後光の1つ以上の効果を可視化するために使用されてもよい。実施例として、可視化タブ1842は、トーテムの可視化1802と関連付けられてもよい。プログラミングツール1800のユーザが、可視化タブ1842を選択すると、プログラミングツール1800は、ユーザが、直接、後光への更新の効果を知覚し得るように、トーテムの可視化1802を示し得る。
ソースコードタブ1844は、トーテムの光パターンの場所および移動と関連付けられたソースコードを含む。例えば、プログラミングツール1800のユーザが、弧構成タブ1820、色選択ツール1830、またはパターン調節ツール1850を使用して、後光を構成するとき、ソースコードは、ユーザの選択に基づいて、自動的に更新されてもよい。ソースコード(または実行可能ファイルバージョン)は、有線接続(例えば、接続インターフェース1222を介して)または無線接続(例えば、ネットワークインターフェース1734を介して)を使用して、トーテムに通信されることができる。加えて、または代替として、ソースコード(または実行可能ファイル)は、トーテムまたは頭部搭載型デバイス(例えば、ローカル処理およびデータモジュール260等)内に記憶されることができ、これは、アナログ信号を生成し、LED1330の光パターンを制御するために使用されることができる。
いくつかの実施形態では、後光は、複数の弧から成ってもよい(図16Aにおける例示的後光パターン1614参照)。プログラミングツール1800は、ユーザが、本明細書に説明される技法を使用して、各弧を構成することを可能にすることができる。図18Dに示されるパターン調節ツール1850は、単独で、または弧構成タブ1820および色選択ツール1830と組み合わせて、後光を構成するために使用されることができる。
図18A−18Dにおける実施例は、後光の光場所または移動パターンを構成することを参照して説明されるが、類似技法はまた、触覚的、聴覚的、視覚的、または他の効果を構成するために使用されることができる。
後光を用いたトーテム較正の実施例
ユーザ入力デバイス(本明細書に説明されるトーテム等)は、エラーを最小限にし、ユーザ相互作用体験を改良するために、較正を要求し得る。例えば、トーテムのIMUは、トーテムのユーザの移動を正確に検出し、それに応答するように較正される必要があり得る。較正は、通常、製造時(例えば、トーテムまたはIMUが製造されるとき)に行われる。製造後較正は、ユーザが、トーテムの製造業者が有するような制御および精密な較正システムを有し得ないため、困難であり得る。しかしながら、ユーザの運動度が変動し得るため、製造後較正を実施することは、ユーザにとって有益であり得る。例えば、あるユーザは、ユーザがそのトーテムを上下揺させるとき、他のユーザより大きい程度までその腕を移動させ得る。加えて、トーテムが異なるユーザに合わせられた可変応答度を有し得るように、カスタマイズされたユーザ体験を提供することが有利であり得る。一部のユーザは、より敏感なトーテム(若干の移動にも応答し得る)を好み得る一方、他のユーザは、あまり敏感ではないトーテム(若干の移動が存在するとき、ユーザインターフェース動作を実施しないように構成され得る)を好み得る。
本明細書に説明されるウェアラブルシステムおよびトーテムは、有利には、ユーザが製造業者の較正システムを使用することを要求せずに、製造後較正をサポートすることができる。トーテムは、後光を表示することができる。ユーザがトーテム1200を移動させると、ウェアラブルシステムの外向きに面した結像システム464は、トーテムの画像および照明される後光を捕捉することができる。外向きに面した結像システム464によって捕捉されるような後光の形状は、トーテムの位置および配向に基づいて、異なり得る。ウェアラブルシステムは、オブジェクトオーガナイザ708を使用して、後光の形状を識別し、適宜、トーテムの位置および配向を決定することができる。トーテムのIMUを較正するために、例えば、外向きに面した結像システム464によって入手された画像に基づいて決定されるようなトーテムの位置および配向が、IMUによって捕捉された位置および配向と比較されることができる。ウェアラブルシステムは、比較に基づいて、トーテムのIMUを補正することができる。
図19Aは、照明される後光を使用したトーテム較正の実施例を図示する。図19Aにおける実施例は、トーテム1900を較正することを参照して説明されるが、これは、例証のためのものであって、限定することを意図するものではない。トーテム1900は、本実施例では、3自由度を有することができる。3DOFトーテム1900は、円形タッチ表面1962と、タッチ表面1962を囲繞する、円形光導波路1964とを含むことができる。光導波路1964は、円形後光を表示することができる。3DOFトーテム1900は、本明細書に説明されるトーテム1200の実施例であることができる。故に、タッチ表面1962は、タッチ表面1262の実施例であることができ、光導波路1264は、光導波路1264の実施例であることができる。
本例示的図19Aでは、トーテムの種々の姿勢(例えば、姿勢1910、1920、1930、および1940)が、示される。トーテムの姿勢は、トーテムの配向および位置を含むことができる。例えば、姿勢1920は、ユーザがトーテムを下向きに向けていることを示す。姿勢1930は、トーテムが右に向けられていることを示し、姿勢1940は、トーテムが右上位置に面することを示す。姿勢1910は、基点位置であってもよく、これは、トーテムの自然静置位置と関連付けられる。
トーテムのIMUのための較正プロセスの間、ウェアラブルシステムは、その外向きに面した結像システム464を使用して、ユーザの環境の画像を捕捉することができる。ユーザの環境の画像は、トーテムの画像を含むことができる。ウェアラブルシステムのオブジェクト認識装置708は、コンピュータビジョンアルゴリズムを適用し、捕捉された画像内のトーテムを識別することができる。オブジェクト認識装置708はまた、コンピュータビジョンアルゴリズムを適用し、画像内の後光の形状を識別することができる。ウェアラブルシステムは、単独で、またはトーテム本体の画像と組み合わせて、後光の形状に基づいて、トーテムの位置および配向を決定することができる。例えば、ウェアラブルシステムは、基点位置と関連付けられた形状を識別し、基点位置と関連付けられた形状に対する変化を計算することができる。基点位置と関連付けられた形状に対する変化に基づいて、ウェアラブルシステムは、基点位置に基づいて、トーテムの位置および配向の変化を決定することができる。例えば、円形の形状を有する後光は、円形形状に対する法線が、結像カメラに直接向かっていない方向に向いている場合、楕円形の形状に変化され得る。ウェアラブルシステムは、故に、基点位置に対する変化に基づいて、トーテムの現在の位置および配向を決定することができる。
実施例として、光導波路1964によって示される照明される後光は、トーテム1900が基点位置にあるとき(姿勢1910によって示されるように)、円形形状を有することができる。加えて、外向きに面した結像システム464は、トーテムが基点位置にあるとき、トーテム1900の本体を知覚し得ない。姿勢1940を参照すると、ウェアラブルシステムは、外向きに面した結像システム464によって入手された画像に基づいて、トーテムの本体の一部が対角線位置にあることを識別することができる。ウェアラブルシステムはまた、トーテムの姿勢1940における照明される後光が、円形形状ではなく、楕円形を有するように現れることを識別することができる。トーテム本体および後光(他の可能性として考えられる情報の中でもとりわけ)の観察に基づいて、ウェアラブルシステムは、トーテムが右に傾斜され、上に面していることを決定することができる。別の実施例として、姿勢1920および1930における後光の形状は両方とも、楕円形であることができる。しかしながら、姿勢1930における後光の長軸は、垂直方向にある(および姿勢1930における短軸は、水平方向にある)一方、姿勢1920における後光の長軸は、水平方向にある(および姿勢1920における長軸は、垂直方向にある)。したがって、ウェアラブルシステムは、姿勢1930では、トーテムが水平に位置付けられている(例えば、左または右に面している)ことを決定し、姿勢1920では、トーテムが垂直に位置付けられている(例えば、上または下に面している)ことを決定し得る。
基点位置は、ウェアラブルシステムによって定義されてもよい。本実施例では、基点位置は、姿勢1910と関連付けられるように定義される。他の実施例では、基点位置は、トーテムの他の姿勢(姿勢1920、1930、1940等)と関連付けられてもよい。本実施例では、後光は、基点位置において円形であるように現れるが、トーテムは、トーテム較正のために、他の光パターンを照明することができ、これを、ウェアラブルシステムは、検出および分析することができる。例えば、トーテムは、正方形形状、三角形(例えば、トーテムのタッチ表面を囲繞する3つの弧を伴う)、重複線分のパターン(例えば、十字形状の弧または「x」形状の弧を有する)等を照明することができる。ある実施形態では、光パターンはまた、複数の色を伴う弧を含んでもよい(例えば、6DOFトーテム等のより多くの自由度を伴うトーテムを較正するために有用であり得る)。例えば、光パターンが、十字形状の弧を含む場合、トーテムは、図25Bに図示されるように、光パターンを照明することができる。外向きに面した結像システム464およびオブジェクト認識装置702は、後光の光パターンにかかわらず、類似技法を使用して、トーテムの位置および配向を決定することができる。
ウェアラブルシステムはまた、トーテムの位置および配向に関連するデータをIMUから受信することができる。例えば、ウェアラブルシステムは、トーテム内のジャイロスコープから入手されたデータに基づいて、トーテムの配向を計算することができる。IMUによって入手された位置および配向データは、トーテムの画像に基づいて計算されるものと比較されることができる。ウェアラブルシステムは、本比較に基づいて、IMUを較正することができる。例えば、ウェアラブルシステムは、IMUによって入手されたデータに基づいて、トーテム1900が姿勢1940にあることを決定し得る。しかしながら、ウェアラブルシステムによって観察されるようなトーテム1900の位置は、実際には、姿勢1930にあり得る。故に、ウェアラブルシステムは、IMUによって観察される位置および配向と姿勢1930(外向きに面した結像システム464によって観察されるように)を関連付け、IMUを較正することができる。いくつかの実施形態では、IMUを較正することに加えて、またはその代替として、ウェアラブルシステムは、較正された(未加工ではなく)読取値を表すように、IMU読取値を補正するように、較正変換(例えば、ルックアップテーブル)を記憶してもよい。
較正プロセスを促進するために、後光は、トーテムをある姿勢(例えば、位置または配向)に移動させるようにユーザを誘導するために使用されてもよい。ウェアラブルシステムは、故に、外向きに面した結像システムおよびIMUを使用して、トーテムの位置または配向を入手することができる。図19Bは、トーテム較正の実施例を図示し、光パターンは、ユーザ移動のためのガイドとして使用される。例えば、トーテムは、パターン1972、1974、1976、1978を示すことができる。これらのパターンは、図14Bに示されるMUX2、0、1、4に対応し得る。例えば、MUX1におけるLED3、LED4、およびLED5が、照光し、パターン1976を示してもよい。
較正プロセスの間、トーテムは、パターン1972を提示し、ユーザに、トーテムを右に移動させるように示し、パターン1974を提示し、ユーザに、トーテムを左に移動させるように示す。トーテムがパターン1976を提示すると、ユーザは、トーテムを上向きに移動させ得るが、トーテムがパターン1978を提示すると、ユーザは、トーテムを下向きに移動させ得る。いったんトーテム(またはIMU)が較正されると、トーテムは、パターン1980を提示することができ、これは、青色一色を示し、円形形状をトーテムのタッチ表面の周囲に形成する。パターン1980に加え、またはその代替として、トーテムはまた、他のインジケーションを採用し、トーテム(またはIMU)が較正されたことを示すことができる。例えば、トーテムは、振動(例えば、アクチュエータ1760を介して)または音(例えば、スピーカ240を介して)を提供することができる。別の実施例として、トーテムは、フェードインまたはフェードアウト効果、円形後光の一部、または他の視覚的スキーム等の他の視覚的インジケーションを提供することができる。いくつかの実施形態では、トーテム(例えば、プロセッサ1770)は、較正が完了されると、LEDに、照明を停止するように命令することができる。
図19Aは、3DOFトーテム1900内のIMUを較正することを参照して説明されるが、類似技法はまた、6DOFトーテムまたは他のタイプのユーザ入力デバイスを較正するために使用されることができる。
図19Cにおけるプロセス1982は、較正プロセスの別の実施例を図示する。パターン1984a、1984b、1984c、および1984dは、トーテムが現在較正している、現在の位置/移動を示す。例えば、パターン1984a(弧を円形タッチパッドの上部に示す)は、トーテムが現在上向き移動と関連付けてそれ自体を較正していることを示し得る一方、パターン1984b(弧を円形タッチパッドの底部に示す)は、トーテムが現在下向き移動と関連付けてそれ自体を較正していることを示し得る。別の実施例として、パターン1984c(弧を円形タッチパッドの右に示す)は、トーテムが現在右移動に対して較正されていることを示し得、パターン1984d(弧を円形タッチパッドの左に示す)は、トーテムが現在左移動に対して較正されていることを示し得る。
いくつかの実施形態では、パターン1984a、1984b、1984c、および1984dは、ユーザ相互作用に起因してトリガされてもよい。例えば、ユーザが、トーテム右に移動させる場合、トーテムは、後光1984dを表示し、適宜、本右移動と関連付けてトーテムを較正することができる。加えて、または代替として、図19Bを参照して説明されるように、パターン1984a、1984b、1984c、および1984dは、自動的に照光し、トーテムをある姿勢に移動させるようにユーザを誘導することができる。
いったんトーテムが全4つの方向(左、右、上、および下)において較正されると、トーテムは、確認パルスを提示することができる。確認パルスは、パターン1986aおよび1986bを交互に表示することを含んでもよい。例えば、トーテムは、0.1秒毎に、後光をパターン1986aからパターン1986b(およびその逆)に変化させることができる。
図19Aおよび19Bは、IMUを較正することを参照して説明されるが、類似技法はまた、他の環境センサ1710を較正するために使用されることができる。
トーテム較正プロセスを通してユーザを誘導することに加え、またはその代替として、類似技法は、具体的オブジェクトとのユーザの相互作用を較正するために使用されることができる。例えば、ユーザがゲームのプレーを開始すると、後光の光場所または移動パターンは、チュートリアルプロセスを通してユーザを誘導するために使用されてもよい。実施例として、トーテムがパターン1984cを示すとき、ユーザは、トーテムを左に移動させることができ、ディスプレイは、故に、アバタの左移動を示すことができる。ユーザはまた、トーテムの移動と特定のユーザインターフェース動作を関連付けることができる。例えば、ユーザは、アバタが作成された後、そのアバタが走っているアクションにあることを知覚することができる。ユーザは、トーテムを前方に(ユーザから離れるように)移動させ、トーテムの前方移動を走っているアクションと関連付けられるように設定することができる。
いくつかの実施形態では、後光の光場所または移動パターンは、較正のタイプに基づいて、異なり得る。例えば、後光は、IMUが較正されるとき、青色であってもよい一方、ユーザがゲームのためにトーテムの移動を構成するとき、緑色であってもよい。
トーテム較正の例示的プロセス
図19Dは、後光と関連付けられた光パターンを使用したトーテム較正の例示的プロセス1990を図示する。例示的プロセス1990は、単独で、またはトーテムと組み合わせて、ウェアラブルシステム(例えば、ローカル処理およびデータモジュール260または遠隔処理モジュール270等)によって実施されることができる。
図19Dにおける例示的プロセス1990のブロック1992aでは、ウェアラブルシステムは、ユーザの環境の画像を受信することができる。画像は、図4に示される外向きに面した結像システム464によって入手されてもよい。
ブロック1992bでは、ウェアラブルシステムは、画像を分析し、画像内のトーテム(または後光)を識別することができる。トーテムは、本体と、光導波路とを含むことができる。光導波路は、後光を表示するように構成されてもよい。ウェアラブルシステムは、図7を参照して説明されるオブジェクト認識装置708を使用して、トーテム、トーテムの本体、後光、または光導波路を識別することができる。オブジェクト認識装置708は、コンピュータビジョンアルゴリズムを使用して、そのような識別を実施してもよい。
ブロック1992cでは、ウェアラブルシステムは、トーテムの第1の位置を決定することができる。第1の位置は、基点位置であってもよい。例えば、トーテムの自然静置位置等の基点位置は、ウェアラブルシステムによって事前によって定義されてもよい。基点位置はまた、ユーザによって識別または変化されてもよい。例えば、ユーザは、基点位置を姿勢1910と関連付けられた位置となるように定義してもよい。ウェアラブルシステムは、基点位置と関連付けられた後光の第1の光パターンを決定することができる。基点位置と関連付けられたパターンは、ウェアラブルシステムによって事前に記憶されてもよい。いくつかの実施形態では、いったんウェアラブルシステムが基点位置を識別すると、ウェアラブルシステムは、通知をユーザにプロンプトし、ユーザがトーテムを基点位置に保持することを要求し得、ウェアラブルシステムは、適宜、基点位置におけるトーテムの画像を捕捉することができる。
ブロック1992dでは、ウェアラブルシステムは、少なくとも部分的に、画像の分析に基づいて、後光の第2のパターンを識別することができる。ウェアラブルシステムは、画像を分析し、オブジェクト認識装置708を使用して、パターンを識別することができる。
ブロック1992eでは、ウェアラブルシステムは、第1の位置に関するトーテムの位置および配向に対する第1の変化を決定することができる。例えば、ウェアラブルシステムは、トーテムが更新された位置にあるときの基点位置と関連付けられたパターンおよび外向きに面した結像システムによって入手されたパターンに基づいて、後光のパターンに対する変化を分析する。画像分析に加え、ウェアラブルシステムはまた、較正されていない、ユーザ相互作用または1つ以上の環境センサからのデータ等の他の情報に基づいて、後光の第2のパターンを識別する、またはトーテムの位置および配向に対する第1の変化を計算することができる。例えば、ユーザは、インジケーションを提供し、トーテムの位置および配向に対する変化を示すことができる。インジケーションは、姿勢またはユーザ入力デバイス466、例えば、指を正面に向けること等を介して、トーテムがそのオリジナル位置から前方に移動されたことを示すことができる。
ブロック1994aでは、ウェアラブルシステムはまた、トーテムと関連付けられた移動データを較正される必要がある環境センサから受信することができる。ウェアラブルシステムは、ブロック1994bにおいて、適宜、環境センサから受信されたデータに基づいて、トーテムの位置および配向に対する第2の変化を計算することができる。
ウェアラブルシステムは、第1の変化と第2の変化との間の差異を計算することができる。ブロック1992fでは、ウェアラブルシステムが、第1の変化と第2の変化との間の相違が閾値条件に達することを決定する場合、ウェアラブルシステムは、ブロック1992gにおいて、環境センサを較正することができる。そうでなければ、ウェアラブルシステムは、環境センサが較正される必要がないことを決定し、ブロック1992hに示されるように、インジケーションを提供することができる。インジケーションは、例えば、図19Cに示される確認パルス等の後光パターンのある場所および移動または触覚フィードバックを含んでもよい。加えて、インジケーションは、ディスプレイ220、スピーカ等によって提示されてもよい。
いくつかの状況では、ウェアラブルシステムは、トーテムの複数の位置および配向と関連付けられたデータを集めることができ、ウェアラブルシステムは、集められたデータに基づいて、環境センサが較正される必要があるかどうかまたは環境センサが較正されるであろう方法を決定することができる。例えば、ウェアラブルシステムは、トーテムが左および右に移動するとき、IMUが較正される必要がないが、前/後移動に対して較正される必要があり得ることを決定し得る。しかしながら、前/後移動に関して較正するために、ウェアラブルシステムはまた、左/右移動を検出するために、IMUを調節する必要があり得る。故に、ウェアラブルシステムは、IMUがすでに左/右移動を合理的正確度で検出することが可能であっても、前/後移動および左/右移動のために必要とされる調節の量を計算してもよい。
図19Eは、後光と関連付けられた光パターンを使用したトーテム較正の別の例示的プロセス1996を図示する。例示的プロセス1996は、本明細書に説明されるトーテムまたはウェアラブルシステムによって実施されることができる。
ブロック1998aでは、トーテムは、トーテムの姿勢の第1のインジケーションを提供することができる。例えば、トーテムの光導波路は、光導波路の左側に位置する弧を伴う後光を表示してもよい。本弧は、インジケーションをユーザに提供し、トーテムを左に移動させることができる。いくつかの実施形態では、インジケーションはまた、ウェアラブルディスプレイによって、または触覚または聴覚フィードバックを介して、提供されることができる。
ブロック1998bでは、トーテムは、姿勢と関連付けられた移動データを入手することができる。例えば、ユーザがトーテムを左に移動させるにつれて、トーテムのIMUは、ユーザの移動を検出し、移動データをプロセッサに通信することができる。
ブロック1998cでは、トーテムは、移動データに基づいて、較正されることができる。例えば、トーテムは、IMUによって検出された移動と左運動を関連付けることができる。
ブロック1998dでは、トーテムが較正されたかどうかを決定することができる。例えば、トーテムのIMUが較正される必要がある場合、トーテムは、トーテムが6DOFに関して較正されたかどうかを決定することができる。いったんトーテムが較正されると、ブロック1998fでは、トーテムは、第2のインジケーションを提示し、トーテムが較正されたことを知らせることができる。例えば、トーテムは、点滅緑色後光を光導波路上に示し、トーテムが較正されたことを示すことができる。
較正プロセスが不成功である場合、プロセス1996は、ブロック1998aに戻り、較正を繰り返してもよい。
後光を用いたデバイスペアリングの実施例
2つのデバイスが、ペアリングされる(例えば、Bluetooth(登録商標)を介して)前に、無線通信リンクを確立するために要求され得る。デバイスがペアリングすると、それらは、例えば、デバイスのユーザまたはデバイス自体のアドレス、名前、およびプロファイル等の情報を共有する、またはその個別のメモリ内に記憶される情報を共有することができる。いったん2つのデバイスがペアリングされると、それらは、共通秘密鍵を共有することができ、これは、将来的情報共有のために、それらが再び繋げられることを可能にすることができる。
デバイスペアリングは、手間がかかり、時として、ユーザに、そのデバイスについての一意の情報を打ち込むことを要求し得る。例えば、ユーザは、そのデバイス(またはユーザの他のデバイス)が近傍のデバイスに関する初期検索を完了後、そのデバイスの情報を手動で入力し得る。デバイスは、ペアリングプロセスのために、NFCプロトコルを使用して、情報を2つのデバイス間で共有することができるが、NFCコンポーネントは、多くの場合、比較的に大規模であって、コストがかかる。
ユーザ相互作用を低減または最小限にし、トーテムとウェアラブルデバイスとの間のペアリングプロセスを簡略化するために、トーテムは、光パターンを提示することができ、これは、ペアリングのために分析および使用されることができる。光パターンは、トーテムとウェアラブルデバイスとの間のペアリングのために使用されるメッセージを含むことができる。光パターンは、トーテムのLED上に照明された後光によって提示されてもよい。メッセージは、ペアリングプロセスを開始するためのインジケーションを含んでもよい。例えば、光パターンは、トリガメッセージをエンコードすることができ、これは、ウェアラブルデバイスに、近傍のデバイスを検索させる、またはそのデバイス情報を近傍のデバイスにブロードキャストさせることができる。別の実施例として、光パターンは、トーテムのデバイス情報をエンコードすることができる。デバイス情報は、暗号化されてもよい。デバイス情報は、デバイス識別子(ID)、オペレーティングシステム情報(例えば、オペレーティングシステムバージョン)、ファームウェア情報、ペアリングのために使用される通信チャネルのタイプ(例えば、Bluetooth(登録商標)、無線チャネル)、トーテムとウェアラブルディスプレイとの間で共有されるデジタル鍵等を含むことができる。ある実装では、デバイスIDは、製造業者、販売業者、開発者、または任意の好適なエンティティによって提供または生成されてもよい。デバイス識別子の実施例は、Android識別子(ID)、iPhone(登録商標)の一意の識別子(UDID)、iPhone(登録商標)の広告識別子(IFAまたはIDFA)、クッキーID、ログインID、インターネットプロトコル(IP)アドレス、メディアアクセス制御(MAC)アドレス、上記のいずれかのハッシュ、上記のいずれかの組み合わせ、または同等物を含んでもよい。ある場合には、デバイス識別子は、デバイス識別子によって識別されるデバイスの1つ以上のハードウェアおよび/またはソフトウェアパラメータに基づいて導出されてもよい。例えば、デバイス識別子は、デバイスのIPアドレス、オペレーティングシステムバージョン、およびロケール設定から導出されてもよい。いくつかの実施形態では、デバイス識別子は、トランザクション、要求、またはネットワークイベントのソースまたは原点を識別するために使用されてもよい。例えば、デバイス識別子は、ユーザ識別子、アカウント識別子、および同等物を含んでもよい。加えて、または代替として、デバイスIDは、デバイスを使用するエンティティ(例えば、ユーザ)と関連付けられてもよい。
実施例として、トーテムは、LEDのリングをその周界上に含んでもよい(例えば、12のLEDがタッチパッドの周囲の円周方向に配置される)。これらの12のLEDは、具体的時間的シーケンス、空間シーケンス、またはそれらの組み合わせで照光するとき、あるデバイス情報を表すために使用されることができる。各LEDは、ビットを割り当てられてもよく、LEDのリングは、本実施例では、12ビットワードを表すことができる。LEDのうちの1つ以上のものは、シーケンスで表示され、ペアリングのために必要な情報を示すことができる。例えば、LED光は、シーケンスで照明され、トーテムのデバイス識別子(ID)を示すことができる。デバイスIDが2であって、数2の2進数表現が10であると仮定すると、トーテムは、LED0(図14Bに示される)を照光し、2進数数2を表し得る一方、他のLED(例えば、LED1−11)は、照明しない。
ある実装では、1つ以上のLED光の色もまた、ペアリングのために使用される情報を表すことができる。例えば、赤色は、トーテムのある製造業者またはモデルを表してもよい一方、LED光の青色は、別の製造業者またはモデルを表してもよい。トーテムはまた、LED光を用いて、トーテムの製造業者とモデルの組み合わせを示すことができる。例えば、トーテムは、LED1を青色で照明する一方、LED3を桃色で照明することによって、製造業者AおよびモデルMを示すことができる。
さらに、各LEDが、ビットを割り当てられる場合、LEDの色は、LEDが表し得る情報の量を拡張させることができる。例えば、1つのLEDが1ビットを割り当てられるのではなく、ある色を伴うLEDが、情報の1単位を割り当てられてもよい。故に、LED光が、9色を照明することができる場合、LEDは、照明された色に基づいて、数0−9を示すために使用されることができる。例えば、LEDが照明されないと、ウェアラブルデバイスは、それを0であると解釈することができる一方、紫色は、数1を表し得、緑色は、数2を表し得る等となる。別の実施例として、LEDはまた、アルファベットで文字を表すことができる(例えば、赤色は、Aであって、白色は、Bである等)。
ウェアラブルデバイスは、ディスプレイおよびカメラ(例えば、外向きに面した結像システム464等)と関連付けられてもよい。カメラは、光シーケンスを捕捉し、次いで、それを復調し、自動ペアリングのための使用可能情報を抽出するために使用されることができる。例えば、カメラによって捕捉された画像は、本明細書に説明される種々のコンピュータビジョンアルゴリズムを使用して分析され、後光の光パターンを抽出することができる。光パターンは、数、アルファベット、単語等に変換されてもよく、これは、トーテムのデバイス情報を表すことができる。ウェアラブルデバイスは、次いで、トーテムとのペアリングのために、本デバイス情報を使用することができる。
2つのトーテムもまた、ペアリングされてもよい。例えば、2人の友人が、その個別のウェアラブルデバイスを使用してビデオゲームをプレーする間、そのトーテムをペアリングし、そのゲーム制御を共有することを所望し得る。本実施例では、1人目のウェアラブルデバイスの外向きに面した結像システムは、第2の友人のトーテム上の光シーケンスを取得することができる(その逆も同様である)。1人目のウェアラブルデバイスは、第2の友人のトーテムのデバイス情報を抽出し、ペアリングのために、その情報を第1の友人のトーテムにパスすることができる。いくつかの実装では、トーテムはまた、カメラを有してもよい。したがって、トーテムは、別のトーテムの光パターンの画像を捕捉し、2つのトーテムのペアリングを達成することができる。
別の実施例として、ウェアラブルデバイス(またはHMD)は、2つのトーテムとペアリングされてもよい。外向きに面した結像システムは、1つのトーテムに関する光パターンの画像を入手することができる。いったんウェアラブルデバイスが1つのトーテムのデバイス情報をその後光から抽出すると、ウェアラブルデバイスは、ペアリングのために、(ウェアラブルデバイスまたは他のトーテムの)デバイス情報を他のトーテムにパスすることができる。
デバイスペアリングに加え、またはその代替として、トーテムによって情報を通信するための類似技法はまた、他のタイプの情報を通信するために使用されることができる。例えば、トーテムは、トーテムによって照明された光パターンを使用して、ユーザのプロファイル情報またはトーテムのステータスをウェアラブルデバイスに通信してもよい。
有利には、いくつかの実施形態では、トーテムの光場所または移動パターンは、トーテムとウェアラブルデバイスとの間または2つのトーテム間の無線ペアリングの進行度を示すために使用されることができる。図20Aおよび20Bは、後光を用いた無線(例えば、Bluetooth(登録商標)またはWiFi)ペアリングプロセスを示す、実施例を図示する。これらの2つの図に図示される光パターンは、無線通信(例えば、トーテムまたはデバイスがそのデバイス情報を他のデバイスに無線でブロードキャストする)を介して、または図14Bを参照して説明される光パターンを通して、デバイスペアリングプロセスの進行度を示すために使用されることができる。
図20Aは、トーテム2020を示し、これは、タッチパッド2022と、ディスプレイ領域2026とを有することができる。トーテム2020は、トーテム1200の実施例であってもよく、タッチパッド2022は、タッチパッド1260の実施形態であってもよい。ディスプレイ領域2026は、LEDのリングと、LEDによって放出される光を拡散させる、光導波路とを含んでもよい。いくつかの実施形態では、ユーザは、ディスプレイ領域2026を作動させることができる。
ディスプレイ領域2026は、後光2024を表示することができる。後光の一部は、濃青色であってもよい。プロセス2012に示されるように、トーテムは、濃青色部分の時計回りスピン動画を再生することができる。いったんトーテムがペアリングされると、トーテムは、濃青色後光をパルス動画で提示することができる。動画の実施例は、図20Bを参照して説明される。トーテムは、パターン2062を表示することによって、スピン動画を開始してもよい。無線ペアリングが、進行中の間、トーテムは、矢印1、2、および3によって図示されるように、パターン2064、2066、および2068を順次提示することができる。トーテムは、ペアリングが依然として継続中である場合、パターン2068後、パターン2062を再び再生することができる。ペアリングが正常に完了した場合、トーテムは、パターン2070を提示することができ、これは、視覚的インジケーションをユーザに提供することができる。
これらの実施例は、トーテムをペアリングすることを参照して説明されるが、類似技法はまた、他のユーザ入力デバイス466またはデバイスとディスプレイまたは照明コンポーネントをペアリングするために使用されることができる。例えば、技法は、スマートウォッチ、スマートフォン、ウェアラブルデバイス、トーテム、タブレット、コンピュータ、テレビ、カメラ、周辺デバイス、家電、または画像認識および処理容量を有する他のデバイスのうちの2つ以上のものをペアリングすることに適用されることができる。スマートフォンとトーテムとの間のペアリングの実施例として、スマートフォンは、そのカメラを使用して、トーテム上の照明パターンを捕捉および分析することができる。別の実施例として、ウェアラブルデバイスは、スマートウォッチとペアリングされてもよく、ウェアラブルデバイスは、スマートウォッチによって表示されるパターン(例えば、スマートウォッチのディスプレイ画面上に)を捕捉および分析することができる。本明細書に説明される技法はさらに、Bluetooth(登録商標)ペアリング、WiFiペアリング(例えば、Wi−Fi DirectTM)、または他のタイプの無線ペアリング等の種々のタイプの無線ペアリングに適用されることができる。Bluetooth(登録商標)ペアリングの実施例として、トーテムが発見可能モードにあるとき、トーテムは、光パターンを表示し、発見可能モードにあることを示すことができる。ウェアラブルデバイスは、本光パターンを捕捉し、ウェアラブルデバイスもまた発見可能モードにあるとき、ペアリングを完了することができる。光パターンがトリガメッセージをエンコードするとき、ウェアラブルデバイスは、光パターンの検出に応じて、発見可能モードに自動的に入ることができる。無線ペアリングの実施例として、トーテムは、光パターンを照明し、接続がトーテムに対して行われ得ることを示すことができる。ウェアラブルデバイスは、光パターンの検出に応じて、招待を受信し、トーテムに接続することができる。無線ペアリングのこれらの実施例に加え、ペアリング技法はまた、無線ペアリング以外のペアリングのタイプに適用されることができる。例えば、技法はまた、Ethernet(登録商標)接続を介して、自宅のユーザ入力デバイスのグループ間でファイルを共有するために使用されることができる。
後光を用いたデバイスペアリングの例示的プロセス
図20Cは、後光を用いたデバイスペアリングの例示的プロセス2080を図示する。ペアリングは、ウェアラブルデバイスと別のデバイス(例えば、トーテム、スマートフォン、テレビ、スマートウォッチ等)との間で行われてもよい。例示的プロセス2080は、HMDと、外向きに面した結像システム464とを有する、ウェアラブルデバイスによって実施されることができる。プロセス2080は、トーテムと他のデバイス、HMD等をペアリングすることを補助するために使用されることができる。
ブロック2082では、ウェアラブルデバイスは、ペアリングを確立するための要求をトーテムから受信することができる。例えば、トーテムは、通信を確立するために、信号を近傍のデバイスにブロードキャストすることができる。ウェアラブルデバイスは、ブロードキャスト信号を受信し、信号を通信したトーテムを識別することができる。別の実施例として、要求は、トーテムの光パターン内にエンコードされたトリガメッセージであってもよい。
ブロック2084では、ウェアラブルデバイスは、トーテムによって提示される後光の画像を受信することができる。画像は、外向きに面した結像システム464によって捕捉されてもよい。図20Aおよび20Bを参照して説明されるように、トーテムは、後光を使用して、後光の光場所または移動パターンを介して、ペアリングを確立するために必要とされるデバイス情報を通信することができる。例えば、後光は、デバイス情報を2進数形態にエンコードしてもよい。
ブロック2086では、ウェアラブルデバイスは、後光の画像を分析し、デバイス情報を抽出することができる。例えば、ウェアラブルデバイスは、オブジェクト認識装置708nを使用して、捕捉された画像内の後光を識別することができる。後光がデバイス情報を2進数形態でエンコードする場合、ウェアラブルデバイスは、デバイス情報の2進数表現を10進数表現またはアルファベット表現に変換することができる。
ブロック2088では、抽出されたデバイス情報に基づいて、ウェアラブルデバイスは、トーテムとウェアラブルデバイスをペアリングすることができる。例えば、ウェアラブルデバイスは、トーテムのデバイスIDを、ウェアラブルデバイスがその情報を共有し得る、デバイスのホワイトリストに追加してもよい。
随意に、ブロック2089では、ウェアラブルデバイスは、ペアリングが成功したことを示すインジケーションをトーテムから受信することができる。インジケーションは、電磁信号であってもよい。加えて、または代替として、トーテムは、ある場所および移動を伴う後光を表示し、ペアリングが完了したことを示すことができる。例えば、トーテムは、円形青色後光のパルス動画を表示することができる。外向きに面した結像システム464は、画像内の本後光を捕捉することができる。いったんウェアラブルデバイスが後光の光場所または移動パターンを認識すると、ウェアラブルデバイスは、ペアリングが完了されたことを決定することができる。
いくつかの実施形態では、トーテムはまた、ペアリングが進行中であることの視覚的インジケーションを提供する。例えば、トーテムは、ペアリングの間、回転弧を伴う後光を提示してもよい。回転弧は、トーテムがデバイス情報をウェアラブルデバイスに提供した後、提示されてもよい。
実施例は、ウェアラブルデバイスを参照して本明細書に説明されるが、いくつかの実施形態では、類似技法はまた、別のコンピューティングデバイスに適用されることができる。例えば、例示的プロセス2080は、AR/VR/MR特徴を提供するように構成される携帯電話とトーテムをペアリングするために使用されることができる。
図20Dは、後光を用いたデバイスペアリングの別の例示的プロセス2090を図示する。ペアリングは、トーテムとコンピューティングデバイスとの間で行われてもよい。コンピューティングデバイスは、ウェアラブルディスプレイと、外向きに面した結像システム464とを有する、ウェアラブルデバイス、または他のコンピューティングデバイス(例えば、テレビ、スマートウォッチ、スマートフォン、タブレット、別のトーテム等)であってもよい。例示的プロセス2090は、トーテム1200によって実施されることができる。
ブロック2092では、トーテムは、コンピューティングデバイスとのペアリングプロセスを開始することができる。例えば、トーテムは、トーテムとペアリングされ得る、近傍のデバイスを検索することができる。トーテムはまた、信号をブロードキャストし、他のデバイスから受信された信号に対する応答に基づいて、ペアリングのために利用可能なデバイスを識別することができる。ユーザは、トーテムまたはコンピューティングデバイスを作動させ、トーテムにペアリングプロセスを開始させることができる。例えば、ユーザは、長時間周期にわたって、ホームボタン1256を押下し、トーテムをペアリングプロセスに入らせることができる。ある実装では、トーテムは、光パターンを提示することができ、これは、トーテムが現在ペアリングモードにあることを示す。光パターンは、コンピューティングデバイスによって捕捉されてもよく、コンピューティングデバイスをトーテムとのペアリングプロセスに入らせることができる。
ブロック2094では、トーテムは、ペアリングプロセス2094のための情報をエンコードする、第1の光パターンを照明することができる。エンコードされた情報は、トーテムのデバイス情報を含んでもよい。エンコードされた情報はまた、コンピューティングデバイスがトーテムと接続するための鍵を含んでもよい。例えば、コンピューティングデバイスは、キー画像から抽出された光パターンに基づいて、鍵を抽出し、無線チャネルを介して、鍵をトーテムに返信し、ペアリングを達成することができる。いくつかの実施形態では、ブロック2092は、随意であってもよい。コンピューティングデバイスは、ブロック2094において、第1の光パターンの検出に応じて、ペアリングプロセスを自動的に開始することができる。
ブロック2096では、トーテムは、応答をコンピューティングデバイスから受信することができる。応答は、コンピューティングデバイスのデバイス情報であってもよい。いくつかの状況では、応答は、トーテムからのより多くの情報のための要求を含んでもよい。コンピューティングデバイスはまた、トーテムがコンピューティングデバイスと通信するために使用し得る、ネットワーク通信情報(例えば、ネットワークポート、暗号化規格、または通信プロトコル)等の他の情報を応答内に提供することができる。いくつかの状況では、応答はまた、コンピューティングデバイスがトーテムを承認されたデバイスのリストに追加したことのインジケーションを含むことができる。
随意に、ブロック2098では、いったんペアリングプロセスが完了されると、トーテムは、第2の光パターンを照明し、ペアリングが成功したことを示すことができる。第2の光パターンは、図20Bに示されるパターン2070であってもよい。いくつかの実施形態では、トーテムは、照明を停止し、ペアリングが完了されたことを示すことができる。例示的プロセス2090は、トーテムによって実施されるように上記に説明されているが、例示的プロセス2090は、別のデバイス(例えば、スマートフォン、スマートウォッチ、コンピュータ等)によっても実施されることができることを理解されたい。
後光の光パターンを使用してオブジェクトのステータスに関するキューを提供する実施例
後光の光パターンの場所および移動は、オブジェクトのステータスを示すためのキューとして使用されることができる。例えば、ある光場所または移動パターンは、ユーザがトーテムをオンまたはオフにしたかどうか、トーテムがスリープモードにあるかどうか、またはトーテムのバッテリ充電ステータスを示すために使用されることができる。非限定的例証的実施例は、下記に説明される。
図21Aは、トーテムのステータスを示す、実施例を図示する。プロセス2110に示されるように、電源ボタンがオフからオンにされると、トーテムは、後光の一部を提示し、トーテムが完全にオンにされるまで、その部分の残りを徐々に充填することができる。トーテムはまた、電源オンプロセスの間、1サイクルにわたって、後光を時計回りに回転させることができる。
電源ボタンがオンからオフに切り替えられると、トーテムは、(プロセス2120に図示されるように)完全後光を提示し、1サイクルにわたって、後光を反時計回りに回転させることができる。トーテムはまた、トーテムが完全に電源オフされるまで(トーテムがもはや後光を提示しないであろうとき)、後光のより多くの部分を徐々に隠蔽することができる。
後光カラーパレットは、ユーザに視覚的に魅力的となるように選択されることができる。異なるカラーパレットが、異なるシステム機能のために使用されることができ、例えば、システムが電源オンにされるときのスタートアップカラーパレット(例えば、図21Aにおけるプロセス2110参照)およびシステムが電源オフにされるときのシャットダウンカラーパレット(例えば、図21Aにおけるプロセス2120)である。例えば、スタートアップカラーパレットは、日の出の際に典型的に見られる色を表すことができ、シャットダウンカラーパレットは、日没の際に典型的に見られる色を表すことができる。他のカラーパレットも、他のシステム機能(例えば、図21C、21Dに示される充電またはバッテリステータスまたはスリープアイドルモード)のために使用されることができる。カラーパレットは、色、グレースケール、照明レベル等を含むことができる。照明パターンは、トーテム光源(例えば、LED1383a、1394a)の明度を制御するために使用される光源コントローラ(タッチボード1394c上に配置されるコントローラであり得る)に通信される、照明情報を含むことができる。照明情報は、カラーパレット、LED(LEDによって生産可能な個々の色を含む)のそれぞれが照明される、タイミング(または変化率)、長さ、および明度レベル等を含むことができる。いくつかのLEDは、付加的または異なる制御機能性、例えば、RGBAを含んでもよく、これは、各ピクセルの不透明度を示し、トーテムがアルファ合成を実施することを可能にする(部分的または完全透明度の外観を可能にする)、RGBのプラスアルファチャネルを含む。照明情報は、トーテムにおいて使用される光源の選択肢に応じて、そのような付加的または異なる制御機能性を含むことができる。
RGB LED(例えば、一般に、各色は、0から255の256の値に設定されることができる)によって表示され得る、膨大な種々のカラーパレットが存在することができる。カラーパレットは、種々の異なる要因、例えば、ユーザ特性、コンテキスト情報、デバイス使用またはステータス、システム機能性等のいずれかに基づいて、本明細書に説明される後光のうちの1つ以上のもののために選択されることができる。
後光照明パターンは、色、陰影、色相等における勾配を含むことができる。例えば、トーテム内の限定数の光源(例えば、12のRGB LED)に起因して、着色光源の明度の変動が、所望の勾配(色または強度)を提供するために使用されることができる。勾配は、照明パターンの中間終了またはフェードアウトの視覚的錯覚を提供することができる。勾配は、光源の明度を動的に調節することによって提供されることができる(時変照明パターン)。実施例として、時計の時間に位置付けられる12のLEDを伴うトーテムに関して、4時から開始し、6時に向かって45度延在し、勾配が、弧の6時で終了する、照明パターンは、LED1−3、明度0.0、LED4、明度1.0、LED5明度1.0、LED6明度0.5、LED7−12、明度0.0のように設定されるLED明度値を有し得る。
他のシャットダウンプロセスは、ユーザがシャットダウン動作を実施することを所望する(例えば、ウェアラブルデバイス200をシャットダウン、一時停止、または再開するため)ことを確認するために、トーテムとのユーザ相互作用を伴うことができる。例えば、ウェアラブルシステム200のディスプレイ220は、シャットダウンがユーザによって選択されると、ユーザに、シャットダウンユーザインターフェースを表示することができる。一実施例では、シャットダウンユーザインターフェースは、円形リング(トーテム1200上の円形光導波路1264を示唆する)と、ユーザが、シャットダウン動作を確認するために、その親指をトーテムのタッチパッド1260上に移動させるべきであることのテキストインジケーションとを表示する。例えば、ユーザインターフェースは、「円を完成させ、電源をオフする」と表示してもよく、円形リングは、ユーザがその親指(例えば)をタッチパッド1260の周囲で時計回りに移動させるべきであることを示す動画を含んでもよい。ユーザがホームボタン1256を押下する場合、シャットダウン動作は、中止されてもよく、シャットダウンユーザインターフェースは、フェードアウトしてもよい。
ユーザがシャットダウン動作を完了することを所望する場合、ユーザは、表示される方向に追従し、その親指をタッチパッド1260の周囲の円形時計回り経路で移動させることができる。ユーザがそのように行うにつれて、光導波路1264は、照明し、親指の運動に追従する弧を作成することができる(および随意に、ディスプレイ220は、進行度を円形リングの周囲に示す動画化されたグラフィックを表示することができる)。ユーザの指が完全円を完成する(シャットダウン動作を確認する)場合、触覚「バンプ」が、トーテム1200によって実施され、ユーザに、シャットダウン動作が開始されたことの触覚的フィードバックを提供することができる(随意に、システム200は、オーディオ音を出力することができる)。ウェアラブルシステム200のディスプレイ220は、シャットダウン画面をユーザに表示し、シャットダウン動作を開始することができる。トーテム1200の光導波路1264は、シャットダウン照明パターン(例えば、図21Bに示されるように)を表示することができる。
図21Bは、電源オンおよびオフプロセスの間の後光の光場所または移動パターンの実施例を図示する。電源オンプロセスの間、後光パターンは、矢印1および2によって示されるように、パターン2122からパターン2124、次いで、パターン2126に移動することができる。本プロセスの間、後光の弧(色、例えば、黄色で照明されてもよい)は、長さが徐々により長く、色がより明るくなることができる。
他方では、電源オフプロセスの間、後光パターンは、矢印3および4によって示されるように、パターン2126から2124、次いで、2122に移動することができる。本プロセスでは、後光の形状は、完全リングから小弧に徐々に低減することができる。
加えて、または代替として、後光は、トーテムのバッテリ1720の充電ステータスを示すように構成されることができ、バッテリの量は、表示されている後光の部分のサイズに対応してもよい。図21Cは、光パターンの場所および移動の実施例を図示し、これは、バッテリ充電ステータスを示す。プロセス2132は、バッテリ1720が充電されているとき、後光の動画シーケンスを図示する。例えば、後光は、4つの象限に分割されてもよい。各象限は、1つ以上のLED光と関連付けられてもよい。トーテムは、各象限内のLEDを照明することによって、全4つの象限を徐々に充填することができる。ある実装では、一度に1つの象限を充填するのではなく、トーテムは、LEDを徐々に照明し、残りのバッテリのパーセンテージを追跡することができる。例えば、バッテリ残が30%であるとき、トーテムは、LEDの30%を照光することができる。
充電が開始するとき、バッテリが15%(例えば)を下回る場合、トーテムは、第1の色(例えば、橙色)を伴う後光を4つの象限のうちの1つに提示することができる。いったんバッテリが25%(例えば)に到達すると、トーテムは、後光の色を第1の色から第2の色(例えば、橙色から緑色)に変化させることができる。バッテリが50%(例えば)に到達すると、トーテムは、時計回り方向における次の象限と関連付けられた後光の部分を照明することができる(例えば、第2の色で)。トーテムは、トーテムが充電されるにつれて、他の象限のフェードインを継続することができる。バッテリが完全に充電されると、トーテムは、後光を第2の色で提示し、全4つの象限が照明されることができる(プロセス2134に示されるように)。
バッテリが消費されている間、後光の形状は、最初に、完全円形であってもよい。トーテムは、プロセス2136に図示されるように、電力の量が減少するにつれて、後光を反時計回り方向に徐々にフェードアウトすることができる。いくつかの実施形態では、バッテリ残が15%(例えば)のみであるとき、トーテムは、後光の残りの部分を第3の色(例えば、赤色)に変え、電力が残っていなくなるまで、パルス動画を再生してもよい(トーテムは、後光のフェードアウト動画を再生することができる)。
後光はまた、トーテムがスリープモードに入ったかどうかを示すために使用されることができる。図21Dは、トーテムがスリープモードに入ったときの例示的後光パターンを図示する。プロセス2142に示されるように、閾値時間周期内でユーザ相互作用が検出されなかったため、トーテムがアイドル状態になると、トーテムは、後光を軌跡(例えば、白色軌跡)の形態で提示することができる。トーテムはまた、軌跡を時計回りサイクルで繰り返すことができる。
後光を用いてトーテムのステータスを示す例示的プロセス
図21Eは、光場所または移動パターンに基づいてトーテムのステータスを示す、例示的プロセスを図示する。図21Eにおけるプロセス2150は、本明細書に説明されるウェアラブルシステムの1つ以上のコンポーネントによって実施されることができる。例えば、プロセス2150は、トーテムまたはウェアラブルデバイスによって実施されることができる。
ブロック2152では、ウェアラブルシステムは、トーテムのステータスを決定することができる。トーテムは、後光を表示するように構成される、光源(例えば、LED)のグループを含むことができる。後光は、トーテムのステータスを示すために使用されてもよい。ステータスは、例えば、トーテムが電源オン/オフにされているかどうか、トーテムがスリープモードにあるかどうか、またはバッテリ充電または消費の進行度等のトーテムのバッテリステータスを含んでもよい。
ブロック2154では、ウェアラブルシステムは、後光の第1の光パターンにアクセスすることができる。第1の光パターンは、後光のための場所または移動パターンを規定してもよい。第1の光パターンは、トーテムの現在のステータスと関連付けられることができる。例えば、バッテリが、現在少ないとき、後光の光場所または移動パターンは、6時位置の周囲の赤色弧であってもよい。
ブロック2156では、ウェアラブルシステムは、LEDのグループに、第1の光パターンに従って後光を表示するように命令することができる。前の実施例を継続すると、ウェアラブルシステムは、赤色光を照明するための命令を生成し、6時位置の近傍に位置するLED(例えば、図14Bに示されるMUX3におけるLED9、LED10、およびLED11等)に送信することができる。
ウェアラブルシステムは、トーテムのステータスを持続的に監視することができる。随意に、ブロック2158では、ウェアラブルシステムは、ステータスに対する更新が存在するかどうかを決定することができる。例えば、トーテムのバッテリがこれまで15%未満であり得たが、ユーザが、トーテムを充電のために電源に差し込んだ。故に、バッテリの量は、徐々に増加し得る。
随意のブロック2160では、更新に応答して、ウェアラブルシステムは、LEDのグループに、光パターンに従って後光を表示するように命令することができる。第2の光パターンは、更新と関連付けられる。例えば、いったんトーテムが充電モードに入ると、後光の色は、赤色から緑色に変化されてもよい。
本明細書の実施例は、トーテムのステータスを示すことを参照して説明されるが、類似技法はまた、ウェアラブルディスプレイまたはバッテリパック等のトーテムの他のコンポーネントのステータスを示すために使用されることができる。
ユーザ相互作用のためのキューとして光パターンを使用する実施例
デバイスステータスに関する情報を提供することに加え、またはその代替として、後光はまた、現在のユーザ相互作用を示す、またはユーザの相互作用を誘導するためのキューとして使用されることができる。図22Aおよび22Bは、ユーザ相互作用のためのキューとして使用される、例示的光場所または移動パターンを図示する。図22Aは、後光パターン2210および2220を表示する。後光パターンは、トーテムのタッチ表面の周囲の光導波路によって表示されてもよい。ユーザは、例えば、その親指2230を使用して、タッチ表面を作動させることができる。後光パターン2210は、弧2222(桃色がかった紫色で照明されてもよい)を光導波路の左側に含むことができる。弧2222の長さおよび明度は、ユーザの指と弧2222を表示する光導波路の部分との間の距離を反映してもよい。
トーテムとの現在のユーザの相互作用を示す実施例として、ユーザの親指が位置2212にあるとき、後光パターン2210が、示されてもよい。親指2230に最も近い弧2222の部分は、最も明るくてもよい。弧の他の部分の明度は、親指2230からより遠く離れるにつれて徐々に低減し、最終的に、黒色に遷移してもよい(例えば、対応するLEDは、オフにされる)。本実施例では、ユーザは、スワイプジェスチャを用いて、タッチ表面を作動させることができる。例えば、ユーザは、その親指を左にスワイプすることができる。ユーザがその親指2230を弧2222に向かって左に移動させるにつれて(矢印2214によって図示される)、弧222の長さは、円形の半分未満から円形の半分以上に増加し得る。弧2222の明度もまた、親指2230と弧2222との間の低減された距離に起因して、増加することができる。
別の実施例として、図22Bでは、パターン2250と関連付けられた後光は、3つの弧2252、2254、2256を含むことができる。弧2252は、第1の色(例えば、赤色であってもよい)に対応する第1のパターンで図示され、弧2254は、第2の色(例えば、青色であってもよい)に対応する第2のパターンで図示され、弧2256は、第3の色(例えば、黄色であってもよい)に対応する第3のパターンで図示される。図14Bを参照すると、弧2252は、LED1、LED2、およびLED3によって照明されてもよく、弧2254は、LED5、LED6、およびLED7によって照明されてもよく、弧2256は、LED9、LED10、およびLED11によって照明されてもよい。
パターン2250は、3方向Dパッドと関連付けられてもよく、各弧は、ユーザインターフェース動作と関連付けられる。例えば、ユーザは、弧2252の近傍の領域をタップし、仮想オブジェクトを左に移動させ、弧2254の近傍の領域をタップし、仮想オブジェクトを右に移動させることができる。ユーザはまた、弧2256の近傍の領域をタップし、仮想オブジェクトを選択または解放することができる。ユーザの親指2230が弧の近傍にあるとき、弧の長さは、減少し得る一方、弧の明度は、増加し得る。例えば、ユーザの親指2230が弧2254の近傍にあるとき、トーテムは、LED5およびLED7(図14Bに示される)をオフにし、弧2254のサイズを低減させてもよい。後光の光場所または移動パターンに対する本変化は、ユーザが仮想オブジェクトの左移動を開始した(または開始しそうである)ことのインジケーションを提供することができる。ユーザの親指が弧2254から離れるように移動すると、トーテムは、LED5およびLED7を再照明し、弧2254のサイズを増加させてもよい。
トーテムは、例えば、Dパッド、タッチデバイス、6DOFコントローラ等の種々のユーザ入力デバイスの機能をシミュレートすることができる。後光の光場所または移動パターンは、トーテムが現在使用されている、ユーザ入力デバイスのタイプを示す、または利用可能なユーザインターフェース相互作用を示すために使用されることができる。例えば、ユーザが3Dディスプレイを使用してウェブページをブラウズしている間、トーテムは、タッチデバイスとして使用されることができ、これは、左/右スワイプジェスチャをサポートする。スワイプジェスチャが利用可能であることのインジケーションをユーザに提供するために、トーテムは、図22Aに示されるパターンを表示することができる。
ある実装では、ウェアラブルシステムは、コンテキスト情報に基づいて、好適なユーザ入力デバイス構成を自動的に選択することができる。例えば、ユーザは、3方向Dパッドを使用して、仮想オブジェクトをFOVの内外に移動させ、仮想オブジェクトを選択することを所望し得る。故に、ウェアラブルデバイスが、ユーザがその環境内の仮想オブジェクトと相互作用していることを検出すると、ウェアラブルデバイスは、トーテムが3方向Dパッドを有効にし、後光パターン2250を提示し、ユーザに3方向Dパッドが利用可能であることを知らせるように命令することができる。
図22Cは、後光と関連付けられた光パターンを使用して、利用可能なユーザインターフェース動作のインジケーションを提供する、別の実施例を図示する。図22Cにおけるトーテムは、星形形状のDパッドとしての役割を果たすように構成されることができる。ユーザにトーテムが現在星形形状のDパッドとして使用されていることを知らせるために、トーテムは、図14Bでは、LED2、LED4、LED6、LED8、LED10、およびLED0を照光してもよい。実施例として、ユーザがウェブページ上のテキストボックスを選択すると、トーテムは、パターン2260を提示し、ユーザがテキスト入力のために星形形状のDパッドを使用することができることを示してもよい。ユーザがLEDの近傍のある領域を作動させると、LEDは、より明るい色を表示し、ユーザがその領域を作動させていることを示してもよい。例えば、ユーザがLED0の近傍の領域を作動させると(パターン2270に図示されるように)、トーテムは、LED0に、より明るい光を放出するように命令してもよい。
いくつかの実施形態では、トーテムは、トーテムを使用して、ユーザに、ユーザが誤ったユーザ相互作用を実施していることを知らせる、または正しい/推奨されるユーザ相互作用のインジケーションを提供してもよい。図23は、光パターンをアラートとして使用して、正しくないまたは不適切なユーザ動作を示す、実施例を図示する。ユーザの親指2230は、最初に、タッチ表面上の位置2312にあってもよい。タッチ表面は、光導波路によって囲繞されてもよく、これは、後光2222を表示することができる。ユーザの親指が、位置2312にあるとき、光導波路は、後光パターン2310を表示することができる。ユーザは、左にスワイプする(例えば、その親指2230を後光2222のより近くに移動させる)ことによって、オブジェクトを左に移動させる必要があり得る。しかしながら、ユーザは、実際には、右にスワイプさせ(矢印2232によって示されるように)、これは、オブジェクトを左に移動させる所望の動作を実施するためには正しくない方向である。その結果、ユーザの親指は、ここでは、位置2314にある。左にスワイプさせ、オブジェクトを適切に移動させる必要があることをユーザにリマインドするために、光導波路は後光パターン2320を示してもよく、後光2222は、長さがより長く、色がより明るくなるように現れる。これは、ユーザの注意を引き付け、その親指2230を正しい方向に移動させることを確実にすることができる。
後光のパターンは、ユーザ相互作用のタイプに応じて変動し得る。図24Aおよび24Bは、それぞれ、スワイプジェスチャおよびタッチジェスチャのための例示的パターンを図示する。図24Aおよび24Bにおけるタッチパッドは、光導波路を含むことができ、これは、後光を表示する。タッチパッドはまた、タッチ表面を含むことができ、これは、光導波路によって囲繞される。タッチ表面は、スワイプジェスチャまたはタッチジェスチャ等のユーザ入力を受信することができる。
図24Aおよび24Bに示される後光は、3つの弧、すなわち、2422(第1の色、例えば、赤色で照明される)と、2424(第2の色、例えば、青色で照明される)と、2426(第3の色、例えば、黄色で照明される)とを有することができる。図14Bを参照すると、弧2422は、LED1、LED2、およびLED3に対応してもよく、弧2424は、LED5、LED6、およびLED7に対応してもよく、弧2426は、LED9、LED10、およびLED11に対応してもよい。
ユーザの親指2230は、最初に、タッチ表面の位置2412にあってもよい。光導波路は、故に、後光のためのパターン2402を表示することができる。下向き矢印2450によって示されるように、ユーザは、弧2426に向かって下向きにスワイプすることができる。例えば、ユーザは、その親指2230を位置2412から位置2414に移動させることができる(矢印1によって示されるように)。ユーザの移動の検出に応じて、トーテムは、パターン2404に示されるように、弧2422および2424のディスプレイを暗化することができる。ユーザはさらに、矢印2によって示されるように、その親指を下向きに移動させることができる。パターン2406では、ユーザの親指が位置2416に到達すると、トーテムは、弧2426の明度および長さを増加させることができる。例えば、LED9、LED10、およびLED11の明度は、増加することができる。トーテムはまた、LED0およびLED8を照明し(第3の色で)、弧2426の長さを増加させることができる。トーテムはさらに、LED7を第3の色で照明し(弧2424に示されるように第2の色ではなく)、LED1を第3の色で照明することができる(弧2422に示されるように第1の色ではなく)。矢印3によって示されるように、ユーザがその親指2230をさらに下向きに移動させるにつれて、全てのLED(LED10の反対側にある、LED4を除く)は、光を第3の色で照明し、弧2426の拡張を第3の色で示すことができる。他方では、ユーザの親指2230が弧2426から離れるように移動すると、トーテムは、矢印4、5、および6に従って、パターンを表示してもよい。本シーケンス下では、弧2426のサイズは、徐々に収縮し得、他の弧2422および2424は、徐々にフェードインし得る。
ユーザはまた、図24Aでは、タッチジェスチャを用いて、タッチパッドを作動させることができる。図24Bは、ユーザがタッチジェスチャを用いてタッチパッドを作動させるときの後光パターンを図示する。トーテムは、最初に、パターン2462に示されるように、3つの弧2422、2424、および2426を表示してもよい。ユーザが黄色弧2426に近接する領域にタッチすると、弧2426の長さは、増加し得る。パターン2464に図示されるように、ユーザが位置2418におけるタッチジェスチャを用いてトーテムを作動させると、LED0および8は、照明され(第3の色で)、増加された長さを示してもよい。しかしながら、弧2426は、ユーザの親指が同一位置2418にあっても、パターン2408(スワイプジェスチャに対応し得る)と比較して、他の弧(例えば、弧2422および2424)を網羅するまで拡張しないであろう。
トーテム上でのユーザ相互作用のためのキューを提供する例示的プロセス
図24Cは、トーテム上でのユーザ相互作用のためのキューを提供する、例示的プロセスを図示する。例示的プロセス2480は、例えば、トーテムまたはウェアラブルデバイス等のウェアラブルシステムのコンポーネントによって実施されてもよい。
ブロック2482では、ウェアラブルシステムは、コンテキスト情報に基づいて、利用可能なユーザインターフェース動作を識別することができる。例えば、ウェアラブルシステムは、利用可能なユーザ相互作用のタイプを決定し、これらのタイプのユーザ相互作用をトーテムの相互作用可能領域にマッピングすることができる。実施例として、ブラウザは、ユーザが、上/下にスクロールする、ウェブページのサイズを拡大/収縮する、ブラウザ上でアイテムを選択する、およびカーソルをブラウザ内で移動させることを可能にすることができる。ウェアラブルシステムは、カーソル移動およびアイテム選択をトーテムの第1の相互作用可能領域にマッピングすることができ、ユーザは、タッチ表面をスワイプし、カーソルを移動させ、タッチ表面をクリックし、アイテムを選択することができる。ウェアラブルシステムはまた、スクロールおよびリサイズ動作を第2の相互作用可能領域にマッピングすることができる。第2の相互作用可能領域は、第1の相互作用可能領域を囲繞してもよい。第2の相互作用可能領域は、Dパッドの機能をシミュレートしてもよく、ユーザは、上/下キーをタップし、ウェブページをスクロールし、左/右キーをタップし、ウェブページをリサイズすることができる。
ブロック2484では、ウェアラブルシステムは、利用可能なインターフェース動作と関連付けられた後光の場所または移動パターンを決定することができる。上記の実施例を継続すると、ウェアラブルシステムは、4つの弧を伴う後光を表示し(図25Bに示されるように)、トーテムが、ユーザがDパッドとして使用し得る、第2の相互作用可能領域を有することを示すことができる。
ブロック2486では、ウェアラブルシステムは、光パターンに従って後光を表示するための命令を生成し、トーテムのLED(図14Bに示される)に伝送することができる。例えば、後光が4つの弧を有する場合、ウェアラブルシステムは、LED1に、青色を照明し、LED4に、黄色を照明し、LED7に、赤色を照明し、LED10に、緑色を照明するように命令することができる。
ブロック2488では、ウェアラブルシステムは、ユーザ入力をトーテム上で受信することができる。例えば、トーテムは、スワイプジェスチャまたはタッチジェスチャを第1の相互作用可能領域内で検出する、またはタップジェスチャを第2の相互作用可能領域内で検出することができる。いくつかの実施形態では、ユーザ入力はまた、単独で、またはユーザの姿勢(例えば、頭部姿勢または他の身体姿勢)と組み合わせて、トリガ1212またはホームボタン1256(図12に示される)等のトーテムの他のコンポーネントを作動させることを含んでもよい。
随意に、ブロック2492では、ウェアラブルシステムは、ユーザ入力が正しい入力であるかどうかを決定することができる。ウェアラブルシステムは、ユーザが相互作用するオブジェクトのコンテキスト情報に基づいて、決定を行うことができる。ウェアラブルシステムは、ユーザ入力がオブジェクトによってサポートされるユーザ入力のタイプに属するかどうかを決定することができる。例えば、ビデオ記録アプリケーションは、姿勢を介して、ユーザ入力を可能にすることができる一方、ウェブブラウザは、スワイプおよびタッチジェスチャの組み合わせをサポートすることができる。故に、ユーザがウェブページをブラウズしているとき、ウェアラブルシステムは、ユーザの足の姿勢を変化に基づいて、ユーザインターフェース動作を実施しなくてもよい。別の実施例として、1つのウェブページは、ユーザがウェブコンテンツを視認することを可能にし得るが、ユーザがそのコメントを入力することを可能にし得ない。故に、ユーザが語句をタイプしようとする場合、ウェアラブルシステムは、ウェブページによってサポートされていないため、ユーザの入力が正しい入力であることを決定してもよい。
ユーザ入力が正しい入力ではない場合、随意に、ブロック2494では、ウェアラブルシステムは、ユーザの入力が正しくないことのインジケーションを提供することができる。インジケーションは、視覚的、聴覚的、触覚的、または他のフィードバックの形態で提供されてもよい。例えば、トーテムは、より明るい色を正しい入力と関連付けられた相互作用可能領域の近傍に提供することによって、正しい入力を強調することができる。別の実施例として、トーテムは、トーテムの本体内の触覚アクチュエータを介して、振動を提供してもよい。さらに別の実施例として、ウェアラブルシステムは、HMDを介して、またはスピーカを介して、アラートメッセージを提供することができる。
ユーザ入力が正しい入力である場合、ブロック2496では、ウェアラブルシステムは、光パターンの場所および移動を更新し、ユーザ入力を反映することができる。例えば、ユーザが、トーテムのタッチ表面の左側をタップする場合、トーテムは、ユーザのタップの近傍のLEDを照光してもよい。いくつかの実施形態では、いったんトーテムがユーザの入力を受信すると、トーテムは、ブロック2492および2494に加え、またはその代替として、後光と関連付けられた光パターンの置換および移動を更新し、ユーザ入力を反映することができる。
トーテムを使用した仮想オブジェクトとの例示的相互作用
トーテムは、複数の相互作用可能領域を含むことができ、各相互作用可能領域は、ユーザ相互作用の1つ以上のタイプまたはユーザ入力デバイスのタイプにマッピングされることができる。図12Aおよび13Aを参照して説明されるように、いくつかの実施形態では、トーテムは、例えば、スワイプジェスチャ等のタッチイベントおよびジェスチャをサポートし得る、タッチ表面を構成する、第1の相互作用可能領域と、光導波路を構成する、第2の相互作用可能領域とを有する。光導波路は、タッチパッドの周囲の4つの点において、またはそれぞれ異なる色を有する4つの弧を用いて、後光を照明することができる。本照明パターンは、光導波路がDパッドとして使用されることを示すことができる。例えば、ユーザは、照明点上をタップまたは押下し、仮想オブジェクトを移動させることができる。同一ユーザジェスチャは、ジェスチャが光導波路またはタッチ表面(例えば、タッチパッドの主要中心エリア内)に適用されるかどうかに応じて、異なるユーザインターフェース動作を実施させることができる。例えば、ユーザが光導波路をタップすると、ユーザは、仮想オブジェクトを移動させ得るが、ユーザがタッチ表面をタップと、ユーザは、仮想オブジェクトを選択し得る。
図25Aは、光導波路の例示的相互作用使用を図示する。図25Aにおけるトーテム2502は、本明細書に説明されるトーテム1200の実施例であってもよい。トーテム2502は、タッチパッド2506を含むことができ、タッチ表面と、タッチ表面を実質的に囲繞し得る、光導波路とを含むことができる。光導波路は、光(例えば、光導波路下のLEDによって放出される)を拡散させ、後光を示すことができ、これは、後光の1つ以上の弧を含んでもよい。図25Aにおける実施例では、後光は、タッチ表面の周囲の4つの領域において照明される、4つの弧2504a、2504b、2504c、および2504dを含むことができる。光導波路は、ユーザ入力を受信するように、相互作用可能であることができる(例えば、ユーザは、光導波路の一部を押下し得る)。例えば、光導波路は、Dパッドの機能をシミュレートすることができる。光導波路は、上キー2508aと、右キー2508cと、下キー2508dと、左キー2508bとを含むことができる。トーテムは、視覚的インジケーションをこれらのキーの場所上に提供することができる。例えば、弧2504aは、上キー2508aに対応することができ、弧2504bは、左キー2508bに対応することができ、弧2504cは、右キー2508cに対応することができ、弧2504dは、下キー2508dに対応することができる。
ユーザは、個別のキーの近傍の領域を作動させ、これらのキーに関連するユーザインターフェース機能を実施することができる。例えば、ユーザは、領域2518aを作動させ、上キー2508aを作動させ、領域2518bを作動させ、左キー2508bを作動させ、領域2518cを作動させ、右キー2508cを作動させ、領域2518dを作動させ、下キー2508dを作動させることができる。
光導波路を作動させる実施例として、ユーザは、光導波路を作動させることによって、仮想オブジェクトをそのFOVの内外に移動させることができる。図25Aにおける場面2500は、FOV2550およびFOR2502内の仮想オブジェクトと相互作用する実施例を図式的に図示する。図4を参照して説明されるように、FORは、ウェアラブルシステムを介してユーザによって知覚されることが可能なユーザの周囲の環境の一部を含むことができる。FOR2502は、仮想オブジェクトのグループ(例えば、2510、2520、2530、2542、および2544)を含むことができ、これは、ディスプレイ220を介してユーザによって知覚されることができる。FOR2502内において、ユーザが所与の時間に知覚する、世界の部分は、FOV2550と称され得る(例えば、FOV2550は、ユーザが現在見ているFORの部分を包含し得る)。場面2500では、FOV2550は、破線2552によって図式的に図示される。ディスプレイのユーザは、オブジェクト2542、オブジェクト2544、およびオブジェクト2530の一部等のFOV2550内の複数のオブジェクトを知覚することができる。FOV2550は、例えば、スタックされた導波管アセンブリ480(図4)または平面導波管600(図6)等のディスプレイを通して見るときのユーザによって知覚可能な立体角に対応してもよい。ユーザの姿勢(例えば、頭部姿勢または眼姿勢)が変化するにつれて、FOV2550は、対応して変化し、FOV2550内のオブジェクトもまた、変化し得る。例えば、仮想オブジェクト2510は、最初に、ユーザのFOV2550外にある。ユーザが仮想オブジェクト2510を見ている場合、仮想オブジェクト2510は、ユーザのFOV2550の中に移動し得、仮想オブジェクト2530は、ユーザのFOV2550外に移動し得る。
ユーザは、その身体姿勢を変化させずに、光導波路を作動させ、仮想オブジェクトをFOV2550の内外に移動させることができる。例えば、ユーザは、キー2508bを作動させ、仮想オブジェクトをFOV2550内で左に移動させることができる。故に、仮想オブジェクト2530は、全体的にFOV2550の中に移動され得る。別の実施例として、ユーザは、キー2508cを作動させ、仮想オブジェクトを右に移動させることができ、その結果、仮想オブジェクト2510は、FOV2550の中に移動され得、仮想オブジェクト2530は、FOV外に移動され得る。
加えて、または代替として、ウェアラブルシステムは、ユーザの視線方向または仮想オブジェクトの場所に基づいて、焦点インジケータをFOV2550内の仮想オブジェクトに割り当てることができる。例えば、ウェアラブルシステムは、焦点インジケータをユーザの視線方向と交差する仮想オブジェクトまたはFOVの中心に最も近い仮想オブジェクトに割り当てることができる。焦点インジケータは、背光(例えば、仮想オブジェクトの周囲の)、色、知覚されるサイズまたは深度の変化(例えば、選択されると、仮想オブジェクトをより近くにおよび/またはより大きく現れさせる)、または他の視覚的効果を備えることができ、これは、ユーザの注意を引き付ける。焦点インジケータはまた、振動、鳴動、ビープ等の可聴または触覚的効果を含むことができる。例えば、ウェアラブルシステムは、最初に、焦点インジケータを仮想オブジェクト2544に割り当ててもよい。ユーザが、領域2518cをタップすると、ユーザは、キー2508cを作動させることができる。故に、ウェアラブルシステムは、仮想オブジェクトを右に移動させ、焦点インジケータをオブジェクト2544からオブジェクト2542に移すことができ、ウェアラブルシステムは、オブジェクト2510をユーザのFOV2550の中に移動させる一方、オブジェクト2530をユーザのFOV外に移動させることができる。
図25Bは、2つの相互作用可能領域を伴うトーテムの例示的相互作用使用を図示する。図25Aを参照して説明されるように、トーテム2502は、タッチ表面2506と、光導波路とを含むことができる。光導波路は、図25Aを参照して説明されるように、Dパッドの機能をシミュレートすることができ、4つの弧2514a、2514b、2514c、および2514dを有する後光を表示することができ、各弧は、異なる色を有する。
ユーザは、光導波路またはタッチ表面2506を作動させ、トーテムを作動させることができる。例えば、ブラウザウィンドウでは、ユーザは、タッチ表面2506を作動させ、カーソルを移動させることができる。タッチ表面2506上の左スワイプは、戻る機能にマッピングされることができる一方、タッチ表面2506上の前方スワイプは、ブラウザページに関する進む機能にマッピングされることができる。6時位置(弧2514dで照明される)におけるタップ(位置2518によって図示される)は、ブラウザを下にスクロールさせることができ、12時位置(弧2514aで照明される)におけるタップは、ブラウザを上にスクロールさせることができる。6時位置または12時位置における保持は、ページを迅速にスクロールすることができる。
トーテムは、ユーザがトーテムを作動させると、視覚的フィードバックを提供することができる。例えば、ユーザが弧2514dの近傍の6時位置をタップすると、トーテムは、弧2514dの明度を増加させることができる。触覚的フィードバックが、ユーザがタッチ表面2506または光導波路を作動させたかどうかを区別するために使用されることができる。例えば、ユーザが光導波路をタップすると、タッチパッド下のアクチュエータは、アクティブ化され、振動を提供してもよい。
図25Cは、トーテムと相互作用するための例示的プロセスを図示する。プロセス2570は、本明細書に説明されるウェアラブルシステム(トーテムまたはウェアラブルデバイス等)によって実施されてもよい。
ブロック2572では、ウェアラブルシステムは、ユーザ入力をトーテム上で受信することができる。ユーザ入力は、スワイプ、タップ、タッチ、押下等の手のジェスチャを含んでもよい。トーテムは、複数の相互作用可能領域を備えることができる。例えば、トーテムは、タッチパッドを含むことができ、これは、タッチ表面と、光導波路とを含むことができ、両方とも、相互作用可能であってもよい。
ブロック2574では、ウェアラブルシステムは、ユーザ入力と関連付けられた相互作用可能領域を複数の相互作用可能領域から決定することができる。例えば、トーテムのタッチセンサ1350は、ユーザが光導波路またはタッチ表面を作動したかどうかを決定することができる。タッチセンサ1350はまた、トーテムを作動させるために使用されるユーザのジェスチャを検出することができる。例えば、タッチセンサは、ユーザがスワイプジェスチャまたはタップジェスチャを使用してトーテムを作動させたかどうかを検出することができる。
ブロック2576では、ウェアラブルシステムは、相互作用可能領域内で検出されたユーザ入力と関連付けられた光パターンにアクセスすることができる。図24Aおよび24Bを参照して説明されるように、光パターンは、ユーザ入力のタイプ(例えば、タッチジェスチャ対タップジェスチャ)に基づいて、異なり得る。光パターンはまた、作動される相互作用可能領域に応じて、異なり得る。例えば、ユーザがタッチ表面を作動させる場合、光パターンは、図24Aに図示されるものであってもよいが、ユーザが光導波路を作動させる場合、光パターンは、図24Bに示されるものを含んでもよい。
ブロック2578では、ウェアラブルシステムは、トーテムの光源(例えば、LED)に、光パターンを備える後光を提示するように命令することができる。例えば、ウェアラブルシステムは、照光すべきLED、LEDの明度、LEDの色、LEDによって放出される光と関連付けられた移動パターン等に関する命令を提供することができる。
トーテムを使用した物理的オブジェクトとの例示的相互作用
図26Aおよび26Bは、トーテムを使用して物理的オブジェクトと相互作用する実施例を図示する。図26Aは、物理的環境2600の実施例を図示し、これは、ユーザの自宅の居間であってもよい。環境2600は、例えば、テレビ(TV)5110、物理的遠隔制御5120(時として、単に、遠隔と称される)、TVスタンド5130、および窓5140等の物理的オブジェクトを有する。ユーザは、物理的オブジェクトを知覚し、物理的オブジェクトと相互作用することができる。例えば、ユーザは、TV5110を鑑賞し、遠隔5120を使用して、TVを制御してもよい。ユーザは、遠隔5120を制御し、TV5110をオン/オフにする、またはTV5110のチャネルまたは音量を変化させることができる。
ユーザはまた、トーテム2602を使用して、TV5110と相互作用することができる。トーテム2602は、トーテム1200の実施形態であることができ、これは、複数の相互作用可能領域を含むことができる。トーテム2602は、TV5110または遠隔5120とペアリングされ、遠隔5120の機能をシミュレートしてもよい。遠隔5120の機能は、トーテムのタッチパッド、トリガ、またはホームボタンと関連付けられた1つ以上の相互作用可能領域にマッピングされてもよい。タッチパッドは、タッチ表面2634と、光導波路2630とを含むことができ、タッチ表面2634および光導波路2630は、異なるタイプのユーザ相互作用にマッピングされてもよい。例えば、タッチ表面2634は、スワイプジェスチャを介して、チャネルを切り替えるために使用されることができる。光導波路2630は、タップジェスチャを介して、音量または早送り/巻き戻しを調節するためのDパッドとして使用されることができる。
図26Bでは、光導波路は、4つの弧、すなわち、弧2632a(第1の色、例えば、青色であってもよい)と、弧2632b(第2の色、例えば、黄色であってもよい)と、弧2632c(第3の色、例えば、赤色であってもよい)と、弧2632d(第4の色、例えば、緑色であってもよい)とを有する、後光のための光パターン2622を示すことができる。弧は、x−形状を形成するように位置付けられる。矢印1によって図示されるように、ユーザ2602が光導波路上の弧2632cの近傍の領域にタッチすると、ユーザは、TV5110上で再生されているプログラムを早送りすることができる。トーテムは、パターン2624を示し、ユーザが弧2632cの近傍をタップしたことを示すことができる。弧2632cは、より明るくかつより長く現れる一方、他の弧2632a、2632b、および2632dは、パターン2624において隠蔽される。
ユーザはまた、右にスワイプすることによって(矢印2によって図示されるように)、次のチャネルに変化させることができる。トーテムは、光パターン2626を照明し、ユーザが、タップジェスチャではなく、スワイプジェスチャによって、トーテムを作動させたことを示すことができる。ユーザ2602の指がパターン2626および2624においてほぼ同一位置にあっても、これらの2つの状況において照明される光パターンは、トーテムを作動させるために使用されるジェスチャが異なるため、異なる。例えば、弧2632cの明度および長さは、増加したが、他の弧2632a、2632b、および2632dは、パターン2626において隠蔽されない。むしろ、トーテムは、単に、他の弧の明度を低減させる。
図26Aおよび26Bを参照して説明される実施例は、いくつかの実施形態では、ウェアラブルデバイスを伴わずに説明されるが、ユーザは、ウェアラブルデバイスを装着している間、トーテムを使用して物理的オブジェクトを制御することができる。例えば、ユーザは、ウェアラブルデバイスを通して、物理的オブジェクトを知覚し、ウェアラブルデバイスによって投影された仮想オブジェクトを知覚することができる。ユーザは、トーテムを使用して、物理的オブジェクトおよび仮想オブジェクトと相互作用することができる。
トーテムを用いた例示的6DOFユーザ体験
図27は、多DOF(例えば、3DOFまたは6DOF)トーテムを用いて仮想オブジェクトを移動させる、実施例を図示する。ユーザは、前/後(前後揺)、上/下(上下揺)、または左/右(左右揺)に移動させることによって、トーテムの位置を変化させることができる。ユーザはまた、側方に傾ける(ロール)、前後に傾ける(ピッチ)、または左および右に方向転換する(ヨー)ことによって、トーテムの配向を変化させることができる。トーテムの位置および配向を変化させることによって、ユーザは、種々のインターフェース動作を仮想オブジェクト上で実施することができる(例えば、移動または回転させること等によって)。
ユーザは、トーテム2602を使用して、仮想オブジェクトを選択することによって、仮想オブジェクトを保持および移動させ、トーテム2602を物理的に移動させることによって、仮想オブジェクトを移動させてもよい。例えば、トーテム2602は、最初に、第1の位置5100aにあってもよい。ユーザ5300は、トーテム504を作動させることによって(例えば、トーテム上のタッチセンサ式パッドを作動させることによって)、第1の位置5100bに位置する標的仮想オブジェクト5400を選択してもよい。標的仮想オブジェクト5400は、ウェアラブルシステムによって表示および移動され得る、任意のタイプの仮想オブジェクトであることができる。例えば、仮想オブジェクトは、ウェアラブルシステムによって表示される、アバタ、ユーザインターフェース要素(例えば、仮想ディスプレイ)、または任意のタイプのグラフィカル要素であってもよい。ユーザ5300は、トーテム2602を軌道5500aに沿って移動させることによって、標的仮想オブジェクトを第1の位置5100bから第2の位置5200bに軌道5500bに沿って移動させることができる。
別の実施例として、仮想オブジェクト5400を5100bから5200bに移動させる代わりに、ユーザ5300は、仮想オブジェクト5400を自身により近づけることを所望し得る。故に、ユーザは、トーテムを自身のより近くに移動させ、仮想オブジェクト5400をより近づけることができる。
さらに別の実施例として、トーテム2602は、位置5200aにあってもよい。ユーザは、トーテムを時計回りに180度回転させることができ、仮想オブジェクト5400は、故に、位置5200bにおいて180度回転されることができる。
トーテムは、ある光パターンを放出し、ユーザ相互作用のタイプを示すことができる。例えば、LEDのリングは、ユーザがトーテムを移動させるとき、青色で照光する一方、ユーザがトーテムを回転させるとき、緑色で照光してもよい。別の実施例として、トーテムの光移動パターンは、トーテムの回転に対応してもよい。例えば、光パターンは、弧を含んでもよい。ユーザがトーテムを回転させるにつれて、弧はまた、ユーザの回転の方向に回転することができる。
トーテム上での装飾的かつ情報的視覚的フィードバックの実施例
いくつかのウェアラブルデバイスは、限定されたFOVを有し得る。有利には、いくつかの実施形態では、トーテムは、トーテムによって照明される光パターンを使用して、FOV外のオブジェクトと関連付けられた情報を提供することができる。
図28Aおよび28Bは、光パターンの場所および移動を介してオブジェクトの情報を提供する、実施例を図示する。図28Aは、人物のFOV2820と、FOR2810とを図示する。FOR2810は、あるグループのオブジェクト(例えば、オブジェクト2812、2822、6050b、6050c)を含有することができ、これは、ウェアラブルシステムを装着しているユーザによって知覚されることができる。FOV2820は、複数のオブジェクト(例えば、オブジェクト6050、2822)を含有することができる。FOVは、ウェアラブルシステムのサイズまたは光学特性、例えば、それを通して光がユーザの正面の実世界からユーザの眼に通過する、頭部搭載型ディスプレイの透明ウィンドウまたはレンズの有効開口サイズに依存し得る。いくつかの実施形態では、ユーザ6100の姿勢(例えば、頭部姿勢、身体姿勢、および/または眼姿勢)が変化するにつれて、FOV2820は、対応して変化することができ、FOV2820内のオブジェクトもまた、変化し得る。本明細書に説明されるように、ウェアラブルシステムは、FOR2810内のオブジェクトおよびFOV2820内のオブジェクトを監視または結像する、カメラ等のセンサを含んでもよい。そのような実施形態では、ウェアラブルシステムは、ユーザのFOV2820内で生じている、またはユーザのFOV外であるが、FOR2810内で生じている、気付かれていないオブジェクトまたはイベントをユーザにアラートしてもよい(例えば、トーテム上の光パターンを介して)。いくつかの実施形態では、ウェアラブルシステムはまた、ユーザ6100が注意を向けている対象または注意を向けていない対象を区別することができる。
FOVまたはFOR内のオブジェクトは、仮想または物理的オブジェクトであってもよい。仮想オブジェクトは、例えば、コマンドを入力するための端末、ファイルまたはディレクトリにアクセスするためのファイルマネージャ、アイコン、メニュー、オーディオまたはビデオストリーミングのためのアプリケーション、オペレーティングシステムからの通知等、例えば、オペレーティングシステムオブジェクトを含んでもよい。仮想オブジェクトはまた、例えば、アバタ、ゲーム内の仮想オブジェクト、グラフィックまたは画像等、アプリケーション内のオブジェクトを含んでもよい。いくつかの仮想オブジェクトは、オペレーティングシステムオブジェクトおよびアプリケーション内のオブジェクトの両方であることができる。ウェアラブルシステムは、頭部搭載型ディスプレイの透明光学を通して視認される、仮想要素を既存の物理的オブジェクトに追加し、それによって、物理的オブジェクトとのユーザ相互作用を可能にすることができる。例えば、ウェアラブルシステムは、部屋内の医療モニタと関連付けられた仮想メニューを追加してもよく、仮想メニューは、ユーザに、ウェアラブルシステムを使用して、医療撮像機器または投薬制御をオンにするまたは調節するオプションを与えてもよい。故に、ウェアラブルシステムは、ユーザの環境内のオブジェクトに加え、付加的仮想画像コンテンツを装着者に提示してもよい。
トーテムは、光パターンの場所および移動を介して、FOV外のオブジェクトの情報を提供することができる。光パターンの場所および移動は、例えば、トーテムまたはウェアラブルデバイス等のウェアラブルシステムの種々のコンポーネントによって計算および決定されることができる。ウェアラブルシステムは、ユーザまたはオブジェクトと関連付けられたコンテキスト情報を使用して、光パターンを決定することができる。例えば、ウェアラブルシステムは、例えば、オブジェクトの場所(ユーザまたはユーザのFOVに対するオブジェクトの近接度を含む)、オブジェクトの緊急度、オブジェクトのタイプ(例えば、オブジェクトが相互作用可能であるかどうか、オブジェクトによってサポートされる相互作用のタイプ、オブジェクトが物理的または仮想であるかどうか等)、オブジェクトの性質(例えば、競争者のアバタ対友人のアバタ等)、情報の量(例えば、通知の数等)、ユーザの選好等の要因を採用することができる。図28Bにおける場面2834に示されるように、オブジェクト2840が場面2832よりユーザ6100から遠いため、トーテム2502上の後光2844は、後光2842(より大きい角度範囲を有する)より小さくなるように現れてもよい(例えば、より短い角度範囲を有する)。別の実施例として、後光は、後光と関連付けられたオブジェクトが、より緊急である、またはユーザのFOVにより近いため、より大きくかつより明るい外観を有してもよい。
ウェアラブルシステムは、関連付けられたオブジェクトの特性に基づいて、色を背光に割り当ててもよい。例えば、ウェアラブルシステムは、オブジェクト6050bが赤色と関連付けられるため、赤色を背光6051bに割り当ててもよい。同様に、ウェアラブルシステムは、それがオペレーティングシステムオブジェクトであって、ウェアラブルシステムが青色を全てのオペレーティングシステムオブジェクトに割り当てるため、青色をオブジェクト6051aに割り当ててもよい。
ウェアラブルシステムは、関連付けられたオブジェクトの特性に基づいて、色を後光に割り当ててもよい。例えば、ウェアラブルシステムは、オブジェクト2840が緑色と関連付けられるため、緑色を後光2842および2844に割り当ててもよい。同様に、ウェアラブルシステムは、それがオペレーティングシステムオブジェクトであって、ウェアラブルシステムが赤色を全てのオペレーティングシステムオブジェクトに割り当てるため、赤色をオブジェクト6050bに割り当ててもよい。その結果、オペレーティングシステムオブジェクト(オブジェクト6050bを含む)と関連付けられた後光は、赤色であってもよい。
後光の外観は、後光と関連付けられたオブジェクトの変化に基づいて、経時的に変化してもよい。例えば、後光は、後光と関連付けられたオブジェクトがより多くのメッセージを受信するにつれて、より濃く成長してもよい。別の実施例として、後光2844は、オブジェクト2840がユーザのより近くに移動するにつれて、より大きく(またはより明るく)なってもよい、またはオブジェクト2840がユーザから離れるように移動するにつれて、より小さく(またはより暗く)成長してもよい。後光の位置もまた、オブジェクトが移動するにつれて変化してもよい。例えば、図28Aでは、ウェアラブルシステムは、最初に、オブジェクト6050bがユーザ6100の左にあるため、オブジェクト6050bと関連付けられた後光をトーテムの光導波路の左側に示してもよい。しかし、オブジェクト6050bがユーザ6100の右側に移動すると、ウェアラブルシステムは、後光の位置をトーテムの光導波路の右側に更新することができる。
視覚的背光の外観もまた、ユーザの姿勢の変化に基づいて、変化してもよい。例えば、図28Aを参照すると、ユーザ6100が左に方向転換するにつれて、オブジェクト6050bは、ユーザのFOVにより近づき得る一方、オブジェクト6050cは、ユーザのFOVからより離れ得る。その結果、オブジェクト6050bと関連付けられた後光は、より明るく(またはより大きく)なり得る。
いくつかの状況では、FOR2810およびFOV2820は、ユーザに直接見えない、不可視オブジェクトを含むことができる。例えば、宝探しゲームは、隠された宝(例えば、破線に図示されるオブジェクト2812、2822)をユーザのFOR2810内に含んでもよい。宝は、ゲームオブジェクト内に埋め込まれ得るため、直接ユーザに可視ではない場合がある。しかしながら、ユーザは、ゲーム内の仮想ツール(例えば、仮想シャベル等)を使用して、隠蔽されたオブジェクトを露見させることができる。別の実施例として、ユーザの物理的車の鍵が、紙の山の下にあり得、ユーザは、物理的車の鍵をユーザのFOV内で知覚することが不可能である場合がある。後光が、隠蔽された車の鍵の場所のインジケーションを提供するために使用されることができる。例えば、後光の弧のサイズおよび場所は、車の鍵とトーテムとの間の相対的距離および配向を示すことができる。車の鍵の場所は、ユーザの環境のマッピング(例えば、以前に外向きに面した結像システムによって入手された画像に基づいて)に基づいて決定されてもよい、または鍵が無線または無線通信能力を装備する場合、トーテム(または他のウェアラブルシステムのコンポーネント)と車の鍵との間の無線通信に基づいて決定されてもよい。
さらに別の実施例として、オブジェクト(例えば、オブジェクト6050a)は、ユーザの視覚的FOR外にあり得るが、それにもかかわらず、潜在的に、ウェアラブルデバイスまたはトーテム上のセンサ(例えば、電磁センサ、無線周波数センサ、無線信号の検出と関連付けられたセンサ、または別の環境センサ)によって知覚され得る。例えば、オブジェクト6050aは、オブジェクト6050aがユーザによって視覚的に知覚不可能であるようなユーザの環境内の壁の背後にあり得る。しかしながら、ウェアラブルデバイスまたはトーテムは、オブジェクト6050aと通信し得る、センサを含んでもよい。
トーテムは、光パターンを介して、不可視オブジェクトの情報を提供することができる。光パターンの場所および移動は、不可視オブジェクトまたはユーザと関連付けられたコンテキスト情報に基づくことができる。例えば、光導波路上の光パターンの場所および移動は、ユーザがある方向を見る、またはそこに移動するように指向する、コンパスとして作用することができる。別の実施例として、光パターンは、ユーザの環境内の不可視オブジェクトのマップを提供してもよい。例えば、トーテムは、30度赤色弧を1時位置で照明し、車の鍵の方向がユーザの正面右であることを示す一方、90度緑色弧を6時位置で照明し、ユーザの携帯電話がユーザの背後にあることを示すことができる。赤色弧および緑色弧はまた、車の鍵および携帯電話の近接度を示すために使用されることができる。例えば、携帯電話は、車の鍵よりユーザに近く、その結果、緑色弧は、赤色弧より大きい。ユーザが移動するにつれて、光パターンの場所(または移動)もまた、変化することができる。例えば、ユーザが前方に移動するにつれて、緑色弧のサイズは、減少し得る一方、赤色弧のサイズは、増加し得る。
ある実装では、ウェアラブルシステムは、ユーザの物理的または仮想環境のマッピングを提示してもよく、これは、不可視オブジェクトの場所を示すことができる。例えば、HMDは、仮想マップを提示することができ、これは、ユーザが発見し得る、ゲーム内オブジェクトを示す。別の実施例として、HMDは、AR/MRコンテンツとして、隠蔽された物理的車の鍵(または仮想オブジェクト)の焦点インジケータまたは他のタイプの視覚的インジケーションを提供することができる。ユーザが環境内を動き回るにつれて、焦点インジケータの外観(例えば、サイズおよびユーザからの相対的方向)は、変化してもよい。いくつかの状況では、HMDは、不可視オブジェクトまでのルートを提示することができる。HMDによって提示されるマップは、トーテム上の後光と組み合わせられ、ユーザを不可視オブジェクトまで誘導してもよい。
いくつかの実施形態では、トーテムは、後光を提示することができ、これは、複数のオブジェクトと関連付けられた情報を含む。例えば、ユーザ6100は、赤色オブジェクト6050bをその左に有し、不可視オブジェクト2812をその背後に有し得る。トーテムは、後光を提示することができ、これは、赤色弧を光導波路の左側に有し、銀色弧を光導波路の底部に有し、赤色弧は、赤色オブジェクト6050bに対応し、銀色弧は、不可視オブジェクト2812に対応する。
光パターンを使用して、オブジェクトの情報を提供することに加え、またはその代替として、ディスプレイはまた、FOV外または不可視である、オブジェクトの情報を提供するように構成されることができる。例えば、ディスプレイは、ユーザの現在のFOV外の対応するオブジェクトのための視覚的背光を表示することができる。視覚的背光の一部は、ディスプレイのユーザのFOVの縁上に設置されることができる。背光の場所は、オブジェクトのコンテキスト情報に基づくことができる。
視覚的背光に加え、ウェアラブルシステムはまた、ユーザに、触覚的または聴覚的効果を使用して、オブジェクトを知らせることができる。例えば、複合現実ゲームでは、ウェアラブルシステムは、ユーザに、トーテム上の振動を通して、接近する競争者を通知してもよい。ウェアラブルシステムは、競争者がユーザに近接するとき、強振動を提供してもよい。別の実施例では、ウェアラブルシステムは、可聴音を使用して、仮想オブジェクトの位置情報を提供してもよい。ウェアラブルシステムはまた、高音を使用してユーザに、近傍の仮想競争者をアラームしてもよい。触覚的、聴覚的、または視覚的フィードバックが、ユーザに周囲オブジェクトを知らせることと組み合わせて、またはその代替として使用されることができる。
図28Cは、光パターンを使用してオブジェクトと関連付けられた情報を提供するための例示的プロセスを図示する。プロセス2870は、本明細書に説明されるウェアラブルシステム(トーテムまたはウェアラブルデバイス等)によって実施されることができる。
ブロック2872では、ウェアラブルシステムは、ユーザの環境内のオブジェクトを識別することができる。オブジェクトは、物理的または仮想オブジェクトであってもよい。オブジェクトは、ユーザのFOR内であるが、ユーザのFOV外にあってもよい。オブジェクトはまた、ユーザのビューから隠蔽されてもよい。例えば、オブジェクトは、別のオブジェクト(例えば、壁)の背後にあってもよい、またはあるユーザインターフェース相互作用を用いてのみ可視となってもよい(例えば、ユーザがゲーム内のあるレベルをクリアするとき)。
ブロック2874では、ウェアラブルシステムは、オブジェクトと関連付けられたコンテキスト情報にアクセスすることができる。コンテキスト情報は、ブロック2874に示されるように、オブジェクトと関連付けられた光パターンの移動および場所を決定するために使用されてもよい。例えば、光パターンを有する後光の明度は、オブジェクトの近接度または緊急度に基づいて決定されてもよい。後光の色はまた、オブジェクトの色に合致してもよい。
ブロック2878では、ウェアラブルシステムは、トーテムのLEDに、光パターンに従って照明するように命令することができる。例えば、命令は、照光すべきLED、LEDの明度、LEDの色、LEDによって放出される光と関連付けられた移動パターン等を含んでもよい。
図29Aは、通知の受信を示す、例示的光場所または移動パターンを図示する。パターン2912および2914は、虹色パターンを含む。トーテムは、虹色軌跡を時計回りサイクルで表示し(プロセス2920によって示されるように)、通知を提供することができる。通知は、例えば、電子メールアプリケーション、ゲーム、ビデオアプリケーション等の仮想オブジェクトと関連付けられてもよい。通知はまた、ウェアラブルデバイスのオペレーティングシステムと関連付けられてもよい。一例示的通知は、ウェアラブルデバイスのオペレーティングシステムからのエラーメッセージであってもよい。加えて、または代替として、通知は、物理的オブジェクトと関連付けられてもよい。例えば、虹色パターン2912および2914は、ユーザの台所内のコーヒーマシンが淹出を終了したことを示し得る。
トーテムは、閾値条件に到達するまで、虹色軌跡を繰り返すことができる。閾値条件は、持続時間、ユーザ相互作用(例えば、トリガ1212の作動等)、または他のコンテキスト情報に基づいてもよい。
図29Bは、トーテム上の光パターンを使用して通知を提供するための例示的プロセスを図示する。例示的プロセス2970は、本明細書に説明されるウェアラブルシステム(トーテムまたはウェアラブルデバイス等)によって実施されることができる。
ブロック2972では、ウェアラブルシステムは、仮想オブジェクトのステータスを決定することができる。例えば、ステータスは、仮想オブジェクトが新しい情報を受信したかどうか(例えば、新しいメッセージ)、仮想オブジェクトがアイドル状態であるかどうか、仮想オブジェクトが問題にぶつかったかどうか等を含んでもよい。
随意に、ブロック2974では、トーテムは、少なくとも部分的に、ステータスに基づいて、アラートを生成することができる。例えば、仮想オブジェクトは、メッセンジャアプリケーションであってもよい。仮想オブジェクトが新しいメッセージをユーザの友人から受信すると、ウェアラブルシステムは、アラートを生成し、新しいメッセージが到着したことを示すことができる。
ブロック2976では、ウェアラブルシステムは、仮想オブジェクトのステータス(または随意に、アラート)と関連付けられた光パターンにアクセスすることができる。場所または移動パターンは、例えば、アラートの重要性、アラートの緊急度、仮想オブジェクトの場所、仮想オブジェクトのタイプ等の仮想オブジェクト(またはアラート)と関連付けられたコンテキスト情報に基づいて決定されてもよい。
ブロック2978では、ウェアラブルシステムは、トーテムのLEDに、光パターンに従って照明するように命令することができる。例えば、ウェアラブルシステムは、照光すべきLED、LEDの明度、LEDの色、LEDによって放出される光と関連付けられた移動パターン等に関する命令を提供することができる。
FOV外のオブジェクトに関する情報を提供することに加え、またはその代替として、光パターンはまた、必ずしも、FOV外にないオブジェクトの情報を提供するために使用されることができる。例えば、ユーザがゲーム内のあるレベルをクリアすると、トーテムは、後光を照光してもよく、これは、ゲームと同一色を有する。別の実施例として、図29Aを参照すると、通知と関連付けられた仮想アプリケーションは、FOV内にあってもよい。ユーザは、例えば、メッセージを構成することによって、電子メールアプリケーションと相互作用する一方、新しい電子メールが到着したことの通知を受信してもよい。
トーテムは、ユーザの現在の相互作用の視覚的フィードバックをユーザまたはユーザの環境の別の人物に提供することができる。例えば、ユーザがそのHMDでビデオを記録しているとき、トーテムは、明滅赤色光パターンを照明し、HMDが記録モードであることをユーザに知らせ、近傍の他者に示すことができる。
図30は、ユーザの環境内の人物にユーザの現在の相互作用を知らせるために使用され得る、例示的光パターンを図示する。例えば、ユーザがテレプレゼンスセッション中であるとき、トーテムは、光導波路を介して、光パターン3000(例えば、時計回り移動を伴う緑色後光)を照明することができる。光パターン3000は、ユーザの環境内の人々に、ユーザがテレプレゼンス中であることを知らせることができる。これは、他の人々がユーザに近づきすぎないようにすることに役立ち、それによって、他の人々がユーザのテレプレゼンスセッションを中断させることを防止し得る。光パターンに加え、またはその代替として、例えば、触覚的、聴覚的、ビデオフィードバック等の他のタイプのフィードバックもまた、ウェアラブルシステムのユーザの現在の相互作用を示すために使用されることができる。
付加的側面
第1の側面では、システムであって、ユーザ入力デバイスの発光アセンブリであって、環境内のオブジェクトの情報を提供するために、複数の光パターンを照明するように構成される、発光アセンブリと、発光アセンブリに通信可能に結合され、ユーザの環境内のオブジェクトを識別し、オブジェクトと関連付けられたコンテキスト情報にアクセスし、少なくとも部分的に、コンテキスト情報に基づいて、発光アセンブリによって照明された光パターンの特性を決定し、発光アセンブリに、光パターンに従って照明するように命令するようにプログラムされる、ハードウェアプロセッサとを備える、システム。
第2の側面では、オブジェクトは、物理的オブジェクトまたは仮想オブジェクトのうちの少なくとも1つを含む、側面1に記載のシステム。
第3の側面では、仮想オブジェクトのステータスは、ユーザによる仮想オブジェクトとの現在の相互作用、仮想オブジェクトが新しい情報を受信したかどうか、仮想オブジェクトがアイドル状態であるかどうか、または仮想オブジェクトがエラー状態であるかどうかのうちの少なくとも1つを含む、側面2に記載のシステム。
第4の側面では、光パターンの特性は、明度、位置、形状、サイズ、または色のうちの少なくとも1つを含む、側面1−3のいずれか1項に記載のシステム。
第5の側面では、オブジェクトと関連付けられたコンテキスト情報は、オブジェクトの場所、オブジェクトの緊急度、オブジェクトのタイプ、オブジェクトの性質、オブジェクトと関連付けられた情報の量、またはユーザの選好のうちの少なくとも1つを含む、側面1−4のいずれか1項に記載のシステム。
第6の側面では、システムはさらに、ウェアラブルディスプレイデバイスを備え、オブジェクトは、ユーザのビューから不可視である、またはウェアラブルディスプレイデバイスのビューの外側にあって、ハードウェアプロセッサは、光パターンのサイズ、形状、または色のうちの少なくとも1つを決定し、オブジェクトを位置特定するためのキューをユーザに提供するようにプログラムされる、側面1−5のいずれか1項に記載のシステム。
第7の側面では、オブジェクトは、仮想コンテンツをユーザに提示するためのウェアラブルシステムのコンポーネントであって、光パターンは、ウェアラブルシステムのコンポーネントのステータスを示す、側面1−6のいずれか1項に記載のシステム。
第8の側面では、コンポーネントは、ユーザ入力デバイス、ウェアラブルディスプレイデバイス、またはバッテリパックのうちの少なくとも1つを含む、側面7に記載のシステム。
第9の側面では、ステータスは、バッテリステータス、電力充電ステータス、ウェアラブルディスプレイデバイスとユーザ入力デバイスとの間の無線ペアリングステータス、ユーザ入力デバイスの較正プロセスのステータス、またはウェアラブルディスプレイデバイスのステータスのうちの少なくとも1つを含む、側面1−8のいずれか1項に記載のシステム。
第10の側面では、光パターンは、オブジェクトと関連付けられたアラートまたは情報をエンコードする、側面1−9のいずれか1項に記載のシステム。
第11の側面では、ステータスは、ユーザによるオブジェクトとの現在の相互作用、オブジェクトが新しい情報を受信したかどうか、オブジェクトがアイドル状態にあるかどうか、またはオブジェクトがエラー状態にあるかどうかのうちの少なくとも1つを含む、側面1−10のいずれか1項に記載のシステム。
第12の側面では、光パターンの特性は、アプリケーションプログラミングインターフェースを介して、ユーザによって構成可能である、側面1−11のいずれか1項に記載のシステム。
第13の側面では、発光ユーザ入力デバイスであって、ユーザ入力を受け取るように構成される、タッチコンポーネントと、複数の光パターンを出力するように構成される、発光アセンブリであって、少なくとも部分的に、タッチコンポーネントを囲繞する、発光アセンブリと、タッチコンポーネントおよび発光アセンブリに通信可能に結合され、コンテキスト情報に基づいて、タッチコンポーネントによってサポートされるユーザインターフェース動作を識別し、ユーザインターフェース動作と関連付けられた第1の光パターンを決定し、第1の光パターンを有する後光を表示するための命令を生成し、発光アセンブリに伝送し、ユーザ入力をタッチコンポーネント上で受信し、後光を第2の光パターンで更新し、ユーザ入力を反映するようにプログラムされる、ハードウェアプロセッサとを備える、発光ユーザ入力デバイス。
第14の側面では、コンテキスト情報は、ユーザの環境、発光ユーザ入力デバイスによってサポートされる入力のタイプ、ハンドヘルドユーザ入力デバイスが相互作用するように構成される、オブジェクトと関連付けられた情報、またはハンドヘルドユーザ入力デバイスと関連付けられたウェアラブルデバイスの特性のうちの少なくとも1つを含む、側面13に記載の発光ユーザ入力デバイス。
第15の側面では、発光アセンブリは、光導波路と、LEDのリングとを備える、側面13または14に記載の発光ユーザ入力デバイス。
第16の側面では、発光アセンブリは、複数のユーザ入力を受け取るように構成され、ハードウェアプロセッサはさらに、少なくとも部分的に、光導波路を作動させることによってサポートされる複数のユーザ入力に基づいて、後光を表示するようにプログラムされる、側面13−15のいずれか1項に記載の発光ユーザ入力デバイス。
第17の側面では、ユーザ入力は、スワイプ、タップ、押下、またはタッチジェスチャのうちの少なくとも1つを含む、側面13−16のいずれか1項に記載の発光ユーザ入力デバイス。
第18の側面では、発光ユーザ入力デバイスは、トーテム、スマートウォッチ、またはスマートフォンのうちの少なくとも1つを含む、側面13−17のいずれか1項に記載の発光ユーザ入力デバイス。
第19の側面では、第1の光パターンは、ユーザに、ユーザインターフェース動作が発光ユーザ入力デバイスによってサポートされることのキューを提供する、側面13−18のいずれか1項に記載の発光ユーザ入力デバイス。
第20の側面では、ハードウェアプロセッサはさらに、コンテキスト情報に基づいて、受信されたユーザ入力が不適切であるかどうかを決定するようにプログラムされ、第2の光パターンは、受信されたユーザ入力が不適切であることの決定に応答して、受信されたユーザ入力が不適切であることの視覚的アラートを提供する、側面13−19のいずれか1項に記載の発光ユーザ入力デバイス。
第21の側面では、後光の少なくとも一部は、第1の光パターンと比較して、第2の光パターンにおいてより明るいまたはより大きいように現れる、側面13−20のいずれか1項に記載の発光ユーザ入力デバイス。
第22の側面では、複数の光パターンの特性は、アプリケーションプログラミングインターフェースを介して、ユーザによって構成可能である、側面13−21のいずれか1項に記載の発光ユーザ入力デバイス。
第23の側面では、特性は、弧の場所または移動パターン、色、明度、形状、またはサイズのうちの少なくとも1つを含む、側面22に記載の発光ユーザ入力デバイス。
第24の側面では、第2の光パターンは、ユーザ入力に応答して、バッテリステータス、電力充電ステータス、ハンドヘルドユーザ入力デバイスと別のコンピューティングデバイスとの間の無線ペアリングステータス、またはハンドヘルドユーザ入力デバイスがアイドル状態であるかどうかのうちの少なくとも1つを示す、側面13−23のいずれか1項に記載の発光ユーザ入力デバイス。
第25の側面では、方法であって、ハードウェアプロセッサの制御下で、コンテキスト情報に基づいて、発光ユーザ入力デバイスによってサポートされるユーザ入力のタイプを識別するステップであって、発光ユーザ入力デバイスは、複数の光パターンを照明するための第1の要素と、ユーザ入力を受信するための第2の要素とを備える、ステップと、サポートされるユーザ入力のタイプと関連付けられた第1の光パターンを決定するステップと、第1の光パターンを有する後光を照明するための命令を生成し、第1の要素に伝送するステップと、発光ユーザ入力デバイス上のユーザ入力に基づいて、第2の光パターンを決定するステップと、ユーザ入力に応答して、後光を第2の光パターンに更新するステップとを含む、方法。
第26の側面では、第1の要素はさらに、別のユーザ入力を受信するように構成され、第1の光パターンを決定するためのユーザ入力のタイプは、第1の要素によってサポートされる他のユーザ入力と関連付けられる、側面25に記載の方法。側面25および26は、「第1の要素」および「第2の要素」を用いるが、単語「要素」は、単語「部分」によって代用されてもよく、これらの2つの側面における単語「要素」は、発光ユーザ入力デバイスの個々のコンポーネントまたはサブコンポーネントまたはコンポーネント(サブコンポーネント)の組み合わせを含むことができる。
第27の側面では、コンテキスト情報は、ユーザの環境、発光ユーザ入力デバイスによってサポートされる入力のタイプ、ハンドヘルドユーザ入力デバイスが相互作用するように構成される、オブジェクトと関連付けられた情報、またはハンドヘルドユーザ入力デバイスと関連付けられたウェアラブルデバイスの特性のうちの少なくとも1つを含む、側面25または26に記載の方法。
第28の側面では、ユーザ入力のタイプは、スワイプ、タップ、押下、またはタッチ入力のうちの少なくとも1つを含む、側面25−27のいずれか1項に記載の方法。
第29の側面では、第1の光パターンは、ユーザに、ユーザ入力のタイプが発光ユーザ入力デバイスによってサポートされることのキューを提供する、側面25−28のいずれか1項に記載の方法。
第30の側面では、コンテキスト情報に基づいて、発光ユーザ入力デバイスによって受信されたユーザ入力が不適切であるかどうかを決定するステップをさらに含み、第2の光パターンは、ユーザ入力が不適切であることの決定に応答して、ユーザ入力が不適切であることの視覚的アラートを提供する、側面25−29のいずれか1項に記載の方法。
第31の側面では、後光の少なくとも一部は、第1の光パターンと比較して、第2の光パターンにおいてより明るいまたはより大きいように現れる、側面25−30のいずれか1項に記載の方法。
第32の側面では、発光ユーザ入力デバイスであって、ユーザ入力を受信するように構成される、複数の相互作用可能領域であって、複数の相互作用可能領域の少なくとも1つの相互作用可能領域は、発光ユーザ入力デバイスの発光アセンブリの一部を構成する、複数の相互作用可能領域と、発光ユーザ入力デバイスのユーザの作動を検出し、ユーザの作動に対応する、複数の相互作用可能領域の中の相互作用可能領域を決定し、少なくとも、作動のタイプおよび作動と関連付けられた相互作用領域に基づいて、ユーザの作動をユーザインターフェース動作を実施するためのユーザ入力に変換し、ユーザ入力に応答して、発光アセンブリに、光パターンを照明するように命令するようにプログラムされる、ハードウェアプロセッサとを備える、発光ユーザ入力デバイス。
第33の側面では、発光ユーザ入力デバイスはさらに、タッチ表面を備え、発光アセンブリは、光導波路を備え、複数の相互作用可能領域は、光導波路と関連付けられた第1の相互作用可能領域と、タッチ表面と関連付けられた第2の相互作用可能領域とを備える、側面32に記載の発光ユーザ入力デバイス。
第34の側面では、ユーザが第1の相互作用可能領域を作動させたことの検出に応答して、ハードウェアプロセッサは、発光アセンブリに、第1の相互作用可能領域内のユーザ入力と関連付けられた第1の光パターンを照明させるようにプログラムされ、ユーザが第2の相互作用可能領域を作動させたことの検出に応答して、ハードウェアプロセッサは、発光アセンブリに、第2の相互作用可能領域内のユーザ入力と関連付けられた第2の光パターンを照明させるようにプログラムされる、側面33に記載の発光ユーザ入力デバイス。
第35の側面では、光パターンは、少なくとも部分的に、発光ユーザ入力デバイスと関連付けられたコンテキスト情報に基づいて決定される、側面32−34のいずれか1項に記載の発光ユーザ入力デバイス。
第36の側面では、ユーザの作動は、スワイプ、タップ、押下、またはタッチジェスチャのうちの少なくとも1つを含む、側面32−35のいずれか1項に記載の発光ユーザ入力デバイス。
第37の側面では、光パターンは、ある色、ある弧長、またはある視覚的効果を有する、弧状領域を含む、側面32−36のいずれか1項に記載の発光ユーザ入力デバイス。
第38の側面では、ハードウェアプロセッサはさらに、ユーザ入力に基づいて、ウェアラブルデバイスと通信し、ウェアラブルデバイスに、ユーザインターフェース動作を実施させるようにプログラムされる、側面32−37のいずれか1項に記載の発光ユーザ入力デバイス。
第39の側面では、方法であって、ハードウェアプロセッサの制御下で、発光ユーザ入力デバイスのユーザの作動を検出するステップであって、発光ユーザ入力デバイスは、複数の相互作用可能領域を備える、ステップと、ユーザの作動に対応する、複数の相互作用可能領域の中の相互作用可能領域を決定するステップと、少なくとも、作動のタイプおよび作動と関連付けられた相互作用領域に基づいて、ユーザの作動をユーザインターフェース動作を実施するためのユーザ入力に変換するステップと、ユーザ入力に応答して、発光ユーザ入力デバイスの発光アセンブリに、光パターンを照明させるステップとを含む、方法。
第40の側面では、複数の相互作用可能領域は、第1のタイプのユーザ入力をサポートする、第1の相互作用可能領域と、第2のタイプのユーザ入力をサポートする、第2の相互作用可能領域とを備える、側面39に記載の方法。
第41の側面では、ユーザが第1の相互作用可能領域を作動させたことの検出に応答して、ハードウェアプロセッサは、発光アセンブリに、第1の相互作用可能領域内のユーザ入力と関連付けられた第1の光パターンを照明させるようにプログラムされ、ユーザが第2の相互作用可能領域を作動させたことの検出に応答して、ハードウェアプロセッサは、発光アセンブリに、第2の相互作用可能領域内のユーザ入力と関連付けられた第2の光パターンを照明させるようにプログラムされる、側面40に記載の方法。
第42の側面では、第1のタイプのユーザ入力または第2のタイプのユーザ入力のうちの少なくとも1つは、ウェアラブルシステムとのユーザの相互作用と関連付けられたコンテキスト情報に依存し、コンテキスト情報は、ユーザが相互作用しているアプリケーションのタイプ、複数の相互作用可能領域によってサポートされる利用可能なユーザ入力、またはユーザの仮想環境のうちの少なくとも1つを含む、側面40または41に記載の方法。
第43の側面では、発光ユーザ入力デバイスは、1つ以上の相互作用可能領域に分割される、タッチ表面を備える、側面39−42のいずれか1項に記載の方法。
第44の側面では、光パターンは、少なくとも部分的に、発光ユーザ入力デバイスと関連付けられたコンテキスト情報に基づいて決定される、側面39−43のいずれか1項に記載の方法。
第45の側面では、複数の相互作用可能領域は、発光ユーザ入力デバイスの発光アセンブリを構成する、側面39−44のいずれか1項に記載の方法。
第46の側面では、ユーザの作動は、スワイプ、タップ、押下、またはタッチジェスチャのうちの少なくとも1つを含む、側面39−45のいずれか1項に記載の方法。
第47の側面では、光パターンは、ある色、ある弧長、またはある視覚的効果を有する、弧状領域を含む、側面39−46のいずれか1項に記載の方法。
第48の側面では、発光ユーザ入力デバイスを較正するためのシステムであって、環境を結像するように構成される、外向きに面した結像システムと、光パターンを照明するように構成される、発光ユーザ入力デバイスと、外向きに面した結像システムおよび発光ユーザ入力デバイスと通信し、第1の姿勢から第2の姿勢への発光ユーザ入力デバイスの移動と関連付けられた発光ユーザ入力デバイスのセンサによって入手された第1の移動データにアクセスし、発光ユーザ入力デバイスの第1の画像を決定し、第1の画像は、発光ユーザ入力デバイスの第1の姿勢に対応する光パターンを含み、外向きに面した結像システムによって入手された発光ユーザ入力デバイスの第2の画像を決定し、第2の画像は、発光ユーザ入力デバイスの第2の姿勢に対応する光パターンを含み、外向きに面した結像システムによって入手された発光ユーザ入力デバイスの第2の画像を決定し、第2の画像は、発光ユーザ入力デバイスの第2の姿勢に対応する光パターンを含み、第2の画像を分析し、発光ユーザ入力デバイスの移動と関連付けられた第2の移動データを計算し、第1の移動データと第2の移動データとの間の相違を検出し、相違が閾値条件に達することの決定に応答して、発光ユーザ入力デバイスのセンサを較正させるようにプログラムされる、ハードウェアプロセッサとを備える、システム。
第49の側面では、第1の姿勢から第2の姿勢への発光ユーザ入力デバイスの移動は、発光ユーザ入力デバイスの位置または配向のうちの少なくとも1つの変化を含む、側面48に記載のシステム。
第50の側面では、第1の姿勢または第2の姿勢は、発光ユーザ入力デバイスの基点位置に対応する、側面48または49に記載のシステム。
第51の側面では、光パターンは、発光ユーザ入力デバイスのタッチ可能部分を囲繞する複数の発光ダイオードによって照明される後光と関連付けられる、側面48−50のいずれか1項に記載のシステム。
第52の側面では、第2の移動データを計算するために、ハードウェアプロセッサは、第1の画像および第2の画像内の後光の形状の変化を計算するようにプログラムされる、側面48−51のいずれか1項に記載のシステム。
第53の側面では、発光ユーザ入力デバイスは、拡張現実デバイスとの相互作用のためのトーテムである、側面48−52のいずれか1項に記載のシステム。
第54の側面では、センサは、トーテムの慣性測定ユニット(IMU)の一部であって、センサは、ユーザの移動に対するトーテムの応答性またはユーザの移動とIMUの測定との間のマッピングのうちの少なくとも1つを調節することによって較正される、側面53に記載のシステム。
第55の側面では、トーテムはさらに、視覚的インジケーションをユーザに提供し、発光ユーザ入力デバイスを第1の姿勢から第2の姿勢に移動させるように構成される、側面53または54に記載のシステム。
第56の側面では、トーテムは、3自由度を有する、側面53−55のいずれか1項に記載のシステム。
第57の側面では、ハードウェアプロセッサは、コンピュータビジョンアルゴリズムを適用し、第1の画像および第2の画像を分析し、第1の画像および第2の画像内の光パターンを識別するようにプログラムされる、側面48−56のいずれか1項に記載のシステム。
第58の側面では、発光ユーザ入力デバイスは、発光ユーザ入力デバイスの較正が完了されたことの決定に応答して、別の光パターンを照明することができる、側面48−57のいずれか1項に記載のシステム。
第59の側面では、ハードウェアプロセッサは、較正のタイプを決定するようにプログラムされ、発光ユーザ入力デバイスによって照明される光パターンは、較正のタイプに対応する、発光ユーザ入力デバイスによって照明される光パターンは、較正のタイプに対応する、側面48−58のいずれか1項に記載のシステム。
第60の側面では、発光ユーザ入力デバイスを較正する方法であって、ハードウェアプロセッサの制御下で、ある姿勢における発光ユーザ入力デバイスの移動データを受信するステップであって、移動データは、発光ユーザ入力デバイスのセンサによって入手される、ステップと、姿勢における発光ユーザ入力デバイスの画像を受信するステップと、画像を分析し、発光ユーザ入力デバイスによって照明される光パターンの形状を識別するステップと、移動データに基づいて、姿勢における発光ユーザ入力デバイスの第1の位置または第1の配向のうちの少なくとも1つを計算するステップと、光パターンの形状に基づいて、姿勢における発光ユーザ入力デバイスの第2の位置または第2の配向のうちの少なくとも1つを計算するステップと、第1の位置と第2の位置または第1の配向と第2の配向との間の相違を決定するステップと、相違が閾値条件に達することの決定に応答して、発光ユーザ入力デバイスのセンサを較正するステップとを含む、方法。
第61の側面では、第1の位置、第1の配向、第2の位置、または第2の配向は、基点姿勢を参照して計算される、側面60に記載の方法。
第62の側面では、画像内の光パターンの形状は、卵形である一方、基点姿勢における光パターンの形状は、円形である、側面60または61に記載の方法。
第63の側面では、光パターンの位置または移動パターンのうちの少なくとも1つは、較正されているセンサのタイプに対応する、側面60−62のいずれか1項に記載の方法。
第64の側面では、較正が成功したことの決定に応答して、視覚的、聴覚的、または触覚的フィードバックのうちの少なくとも1つを提供するステップをさらに含む、側面60−63のいずれか1項に記載の方法。
第65の側面では、センサを較正するステップは、ユーザの移動に対するセンサの応答性またはユーザの移動とセンサの測定との間のマッピングのうちの少なくとも1つを調節するステップを含む、側面60に記載の方法。
第66の側面では、発光ユーザ入力デバイスを較正するためのシステムであって、環境を結像するように構成される、外向きに面した結像システムと、外向きに面した結像システムと通信し、環境の画像を受信し、画像を分析し、発光ユーザ入力デバイスを識別し、発光ユーザ入力デバイスの第1の姿勢および照明される後光の光パターンの第1の外観を決定し、少なくとも部分的に、画像の分析に基づいて、照明される後光の光パターンの第2の外観を識別し、発光ユーザ入力デバイスの姿勢に対する第1の変化を決定し、発光ユーザ入力デバイスによって測定された発光ユーザ入力デバイスの移動データを受信し、少なくとも部分的に、画像の分析に基づいて、発光ユーザ入力デバイスの姿勢に対する第2の変化を計算し、第1の変化と第2の変化との間の差異を計算し、差異が閾値に達するかどうかを決定し、差異が閾値条件を超えたことの決定に応答して、発光ユーザ入力デバイスのセンサを較正するようにプログラムされる、ハードウェアプロセッサとを備える、システム。
第67の側面では、発光ユーザ入力デバイスの姿勢は、発光ユーザ入力デバイスの位置および配向を含む、側面66に記載のシステム。
第68の側面では、発光ユーザ入力デバイスは、トーテム、スマートウォッチ、またはスマートフォンのうちの少なくとも1つを含み、センサは、IMUである、側面66または67に記載のシステム。
第69の側面では、差異が閾値を超えないことの決定に応答して、ハードウェアプロセッサは、センサが較正されていることのインジケーションを提供するようにプログラムされる、側面66−68のいずれか1項に記載のシステム。
第70の側面では、インジケーションは、発光ユーザ入力デバイス上の視覚的、聴覚的、または触覚的フィードバックを含む、側面66−69のいずれか1項に記載のシステム。
第71の側面では、第1の位置は、発光ユーザ入力デバイスの基点位置である、側面66−70のいずれか1項に記載のシステム。
第72の側面では、発光ユーザ入力デバイスはさらに、ユーザ入力デバイスを第1の姿勢および第2の姿勢を含む姿勢に位置付けるように、発光ユーザ入力デバイスのユーザを誘導するための一連の光パターンを照明するように構成される、側面66−71のいずれか1項に記載のシステム。
第73の側面では、少なくとも部分的に、画像の分析に基づいて、発光ユーザ入力デバイスの姿勢に対する第2の変化を計算するために、ハードウェアプロセッサは、第1の外観における光パターンの形状に対する第2の外観における光パターンの形状の変形を決定するようにプログラムされる、側面66−72のいずれか1項に記載のシステム。
第74の側面では、発光ユーザ入力デバイスは、仮想コンテンツを拡張現実、仮想現実、または複合現実環境内に提示するためのウェアラブルディスプレイをさらに備える、ウェアラブルシステムの一部である、側面66−73のいずれか1項に記載のシステム。
第75の側面では、センサを較正するために、ハードウェアプロセッサは、ユーザの移動に対するセンサの応答性またはユーザの移動とセンサの測定との間のマッピングのうちの少なくとも1つを調節するようにプログラムされる、側面66に記載のシステム。
第76の側面では、発光ユーザ入力デバイスを較正するための方法であって、発光アセンブリと、ハードウェアプロセッサとを備える、発光ユーザ入力デバイスの制御下で、発光ユーザ入力デバイスの第1の姿勢を決定するステップと、発光アセンブリに、発光ユーザ入力デバイスを第2の姿勢に移動させるようにユーザを誘導するための第1の光パターンを照明させるステップと、発光ユーザ入力デバイスが第2の姿勢に移動されたことの決定に応答して、発光ユーザ入力デバイスの姿勢データを入手するステップと、少なくとも部分的に、姿勢データに基づいて、発光ユーザ入力デバイスを較正するステップと、ユーザに、較正プロセスが完了されたことのインジケーションを提供するステップとを含む、方法。
第77の側面では、第1の姿勢を決定するステップは、少なくとも部分的に、発光ユーザ入力デバイスの慣性測定ユニット(IMU)から入手されたデータに基づく、側面76に記載の方法。
第78の側面では、インジケーションは、聴覚的、視覚的、または触覚的インジケーションのうちの少なくとも1つを含む、側面76−77のいずれか1項に記載の方法。
第79の側面では、インジケーションは、第2の光パターンを含む、側面76−78のいずれか1項に記載の方法。
第80の側面では、姿勢データは、発光ユーザ入力デバイスの位置または配向データのうちの少なくとも1つを含む、側面76−79のいずれか1項に記載の方法。
第81の側面では、発光ユーザ入力デバイスの姿勢データは、発光ユーザ入力デバイスが複数の姿勢にあるときに入手されたデータを含む、側面76−80のいずれか1項に記載の方法。
第82の側面では、発光アセンブリに、較正プロセスの開始を示す第3の光パターンを照明させるステップをさらに含む、側面76−81のいずれか1項に記載の方法。
第83の側面では、発光ユーザ入力デバイスを較正するためのシステムであって、発光ユーザ入力デバイスの移動データを入手するように構成される、1つ以上のセンサと、複数の光パターンを出力するように構成される、発光ユーザ入力デバイスの発光アセンブリと、発光ユーザ入力デバイスをある姿勢に位置付けるための第1のインジケーションをユーザに提供し、姿勢への発光ユーザ入力デバイスの移動データを入手し、少なくとも部分的に、移動データに基づいて、発光ユーザ入力デバイスを較正し、ユーザに、較正プロセスが完了されたことのインジケーションを提供するようにプログラムされる、ハードウェアプロセッサとを備える、システム。
第84の側面では、第1のインジケーションは、光パターンを含み、その場所、移動、または組み合わせは、ユーザに、発光ユーザ入力デバイスを姿勢に移動させるためのガイドを提供する、側面83に記載のシステム。
第85の側面では、発光ユーザ入力デバイスは、拡張または複合現実環境と相互作用するためのウェアラブルシステムの一部であって、第1のインジケーションは、ユーザによって位置付けられるべきトーテムの姿勢を示す、ウェアラブルシステムの頭部搭載型ディスプレイによって提供される、仮想画像を含む、側面83または84に記載のシステム。
第86の側面では、ハードウェアプロセッサはさらに、発光ユーザ入力デバイスが較正されていることの決定に応答して、発光ユーザ入力デバイスが較正されていることを知らせる第2のインジケーションを提供する、または発光ユーザ入力デバイスが較正されていないことの決定に応答して、発光ユーザ入力デバイスの較正を継続するようにプログラムされる、側面83−85のいずれか1項に記載のシステム。
第87の側面では、ハードウェアプロセッサはさらに、発光ユーザ入力デバイスのための較正プロセスを開始するための開始条件を検出するようにプログラムされる、側面83−86のいずれか1項に記載のシステム。
第88の側面では、発光ユーザ入力デバイスを較正するために、ハードウェアプロセッサは、姿勢における発光ユーザ入力デバイスを含む画像にアクセスし、移動データおよび画像を分析し、移動データから計算されたものと画像から決定されたものとの間の発光ユーザ入力デバイスの位置または配向のうちの少なくとも1つの相違を識別するようにプログラムされる、側面83−87のいずれか1項に記載のシステム。
第89の側面では、発光ユーザ入力デバイスは、タッチ表面を備える、トーテムを備え、発光アセンブリは、タッチ表面に隣接して位置付けられる、側面83−88のいずれか1項に記載のシステム。
第90の側面では、発光ユーザ入力デバイスをペアリングするためのウェアラブルデバイスであって、環境を結像するように構成される、外向きに面した結像システムと、外向きに面した結像システムと通信し、外向きに面した結像システムによって入手された画像を受信し、画像は、発光ユーザ入力デバイスによって照明された光パターンを含み、ウェアラブルデバイスとペアリングされるべき発光ユーザ入力デバイスを識別し、画像を分析し、発光ユーザ入力デバイスとウェアラブルデバイスのペアリングと関連付けられた情報をエンコードする、光パターンを識別し、発光ユーザ入力デバイスとウェアラブルデバイスをペアリングするために、光パターン内にエンコードされた情報を抽出し、少なくとも部分的に、抽出された情報に基づいて、発光ユーザ入力デバイスとウェアラブルデバイスをペアリングするようにプログラムされる、ハードウェアプロセッサとを備える、ウェアラブルデバイス。
第91の側面では、ハードウェアプロセッサはさらに、発光ユーザ入力デバイスとウェアラブルデバイスとの間のペアリングが成功したかどうかを決定し、ペアリングが成功したことの決定に応答して、発光ユーザ入力デバイスに、ペアリング成功を示す別の光パターンを照明するように命令するようにプログラムされる、側面90に記載のウェアラブルデバイス。
第92の側面では、ハードウェアプロセッサはさらに、ペアリングが成功したことの決定に応答して、無線接続を介して、発光ユーザ入力デバイスと通信するようにプログラムされる、側面90または91に記載のウェアラブルデバイス。
第93の側面では、無線接続は、Bluetooth(登録商標)接続を含む、側面92に記載のウェアラブルデバイス。
第94の側面では、光パターンによってエンコードされる情報は、発光ユーザ入力デバイスのデバイス情報を含む、側面90−93のいずれか1項に記載のウェアラブルデバイス。
第95の側面では、光パターンは、情報を2進数形態でエンコードする、側面90−94のいずれか1項に記載のウェアラブルデバイス。
第96の側面では、光パターンは、ペアリングと関連付けられた情報をエンコードする、1つ以上の色を含む、側面90−95のいずれか1項に記載のウェアラブルデバイス。
第97の側面では、光パターンの一部は、電磁スペクトルの非可視部分内の光を含む、側面90−96のいずれか1項に記載のウェアラブルデバイス。
第98の側面では、ウェアラブルデバイスは、仮想コンテンツを複合現実環境内に提示するための頭部搭載型ディスプレイを備え、外向きに面した結像システムは、頭部搭載型ディスプレイに搭載されるカメラを備える、側面90−97のいずれか1項に記載のウェアラブルシステム。
第99の側面では、発光ユーザ入力デバイスをペアリングするための方法であって、ハードウェアプロセッサの制御下で、ペアリングプロセスを発光ユーザ入力デバイスと電子デバイスとの間で開始するステップと、カメラによって入手された画像にアクセスするステップであって、画像は、発光ユーザ入力デバイスによって照明された光パターンを含む、ステップと、電子デバイスとペアリングされるべき発光ユーザ入力デバイスを識別するステップと、画像を分析し、発光ユーザ入力デバイスと電子デバイスのペアリングと関連付けられた情報をエンコードする、光パターンを識別するステップと、発光ユーザ入力デバイスと電子デバイスをペアリングするために、光パターン内にエンコードされた情報を抽出するステップと、少なくとも部分的に、抽出された情報に基づいて、発光ユーザ入力デバイスと電子デバイスをペアリングするステップとを含む、方法。
第100の側面では、電子デバイスは、仮想コンテンツを複合現実環境内に提示するためのウェアラブルシステムのコンポーネントを含む、側面99に記載の方法。
第101の側面では、電子デバイスは、別のユーザ入力デバイスまたは頭部搭載型ディスプレイを含む、側面100に記載の方法。
第102の側面では、ペアリングプロセスが成功したことの決定に応答して、発光ユーザ入力デバイスと電子デバイスとの間の無線接続を確立するステップをさらに含む、側面99−101のいずれか1項に記載の方法。
第103の側面では、光パターンによってエンコードされる情報は、発光ユーザ入力デバイスのデバイス情報を含み、デバイス情報は、デバイス識別子、発光ユーザ入力デバイスに関する識別情報、または発光ユーザ入力デバイスと電子デバイスをペアリングするためのキーのうちの少なくとも1つを含む、側面99−102のいずれか1項に記載の方法。
第104の側面では、光パターンは、情報を2進数形態でエンコードする、側面103に記載の方法。
第105の側面では、光パターンは、ペアリングプロセスの情報をエンコードする、1つ以上の色を含む、側面99−104のいずれか1項に記載の方法。
第106の側面では、光パターンの一部は、電磁スペクトルの非可視部分内の光を含む、側面99−105のいずれか1項に記載の方法。
第107の側面では、発光ユーザ入力デバイスをペアリングするためのシステムであって、光パターンを出力するように構成される、複数の発光ダイオード(LED)と、電子デバイスとのペアリングプロセスを開始し、複数のLEDの1つ以上のLEDに、ペアリングプロセスに関する情報をエンコードする第1の光パターンを照明させ、電子デバイスが正常にペアリングされたことの決定に応答して、ペアリングが成功したことを示す第2の光パターンを照明するようにプログラムされる、ハードウェアプロセッサとを備える、システム。
第108の側面では、第1の光パターンは、ユーザ入力デバイスと関連付けられたデバイス情報または他のコンピューティングデバイスにペアリングプロセスを開始させるトリガメッセージのうちの少なくとも1つをエンコードする、側面107に記載のシステム。
第109の側面では、ハードウェアプロセッサは、ペアリングプロセスの間、応答を電子デバイスから受信し、複数のLEDの第2の1つ以上のLEDに、応答に対する返信における返信メッセージをエンコードする、第3の光パターンを照明させるようにプログラムされる、側面107または108に記載のシステム。
第110の側面では、複数のLEDの1つ以上のLEDの照明は、ペアリングプロセスの情報を2進数形態でエンコードする、側面107−109のいずれか1項に記載のシステム。
第111の側面では、1つ以上のLEDの照明と関連付けられた色は、ペアリングプロセスの情報をエンコードする、側面107−110のいずれか1項に記載のシステム。
第112の側面では、第1の光パターンまたは第2の光パターンの一部は、電磁スペクトルの非可視部分内の光を含む、側面107−111のいずれか1項に記載のシステム。
第113の側面では、方法であって、複数の光パターンを照明するための発光アセンブリを備える、第1の電子デバイスのハードウェアプロセッサの制御下で、第1の電子デバイスと第2の電子デバイスとの間の通信を開始するステップと、第1の電子デバイスに、通信のためのメッセージをエンコードする、光パターンを照明させるステップと、応答を第2の電子デバイスから受信するステップと、少なくとも部分的に、第2の電子デバイスからの応答に基づいて、インジケーションを第1の電子デバイスのユーザに提供させるステップとを含む、方法。
第114の側面では、通信は、第1の電子デバイスと第2の電子デバイスとの間のペアリングプロセスを含む、側面113に記載の方法。
第115の側面では、第1の光パターンは、ユーザ入力デバイスと関連付けられたデバイス情報または他のコンピューティングデバイスにペアリングプロセスを開始させるトリガメッセージのうちの少なくとも1つをエンコードする、側面114に記載の方法。
第116の側面では、インジケーションは、第1の電子デバイスおよび第2の電子デバイスが正常にペアリングされたことの決定に応答して、第1の電子デバイスと第2の電子デバイスとの間のペアリングが完了されたことを示す、第1の電子デバイスによって照明される第2の光パターンを含む、側面114または115に記載の方法。
第117の側面では、インジケーションは、応答に対する返信における返信メッセージをエンコードする、第1の電子デバイスによって照明される第3の光パターンを含む、側面113−116のいずれか1項に記載の方法。
第118の側面では、第1の光パターンは、情報をメッセージ内に2進数形態でエンコードする、側面113−117のいずれか1項に記載の方法。
第119の側面では、光パターンは、通信のメッセージをさらにエンコードする、1つ以上の色を含む、側面113−118のいずれか1項に記載の方法。
第120の側面では、発光ユーザ入力デバイスであって、ユーザ入力を受信するように構成される、タッチパッドアセンブリであって、タッチパッドアセンブリは、タッチ表面と、タッチ表面に結合される、タッチセンサであって、タッチセンサの少なくとも一部は、タッチ表面下にあって、タッチ表面の作動を検出するように構成される、タッチセンサと、光学拡散要素および複数の光照明要素を備える、発光アセンブリであって、タッチセンサおよびタッチ表面に結合され、複数の光パターンを表示するように構成される、発光アセンブリと、発光アセンブリおよびタッチセンサに結合される、印刷回路基板とを備える、タッチパッドアセンブリと、タッチパッドアセンブリを支持するための本体とを備える、発光ユーザ入力デバイス。
第121の側面では、光学拡散要素の少なくとも一部は、タッチセンサ上にオーバーレイされ、タッチセンサはさらに、光学拡散要素の作動を検出するように構成される、側面120に記載の発光ユーザ入力デバイス。
第122の側面では、光学拡散要素は、光導波路を備える、側面120または121に記載の発光ユーザ入力デバイス。
第123の側面では、光学拡散要素は、タッチ表面を実質的に囲繞する、側面120−122のいずれか1項に記載の発光ユーザ入力デバイス。
第124の側面では、タッチパッドアセンブリはさらに、発光アセンブリ、タッチ表面、およびタッチセンサを保持するためのアーマチュアを備える、側面120−123のいずれか1項に記載の発光ユーザ入力デバイス。
第125の側面では、複数の光照明要素は、発光ダイオードを備える、側面120−124のいずれか1項に記載の発光ユーザ入力デバイス。
第126の側面では、複合現実コンテンツを提示するように構成されるウェアラブルデバイスとの無線接続を確立するように構成される、接続インターフェースをさらに備える、側面120−125のいずれか1項に記載の発光ユーザ入力デバイス。
第127の側面では、本体は、タッチパッドアセンブリを支持するための、上側部分と、基部に除去可能に搭載されるように構成される、底部部分とを有する、側面120−126のいずれか1項に記載の発光ユーザ入力デバイス。
第128の側面では、本体はさらに、ユーザ相互作用のために、トリガ、バンパ、またはホームボタンのうちの少なくとも1つを含む、側面120−127のいずれか1項に記載の発光ユーザ入力デバイス。
第129の側面では、複数の光照明要素の照明を制御するようにプログラムされる、ハードウェアプロセッサをさらに備える、側面120−128のいずれか1項に記載の発光ユーザ入力デバイス。
第130の側面では、発光ユーザ入力デバイスであって、外部タッチ表面を備える、本体と、2つ以上のセンサであって、そのうちの少なくとも1つは、タッチ表面の下に位置付けられ、タッチ表面に印加されるタッチ入力を検出するように構成される、タッチセンサを備える、2つ以上のセンサと、タッチ表面の下に位置付けられる、複数の発光ダイオード(LED)と、データを2つ以上のセンサから受信し、2つ以上のセンサのうちの少なくとも1つから受信されたデータに基づいて、複数のLEDのうちの1つ以上のものをアクティブ化するようにプログラムされる、ハードウェアプロセッサとを備える、発光ユーザ入力デバイス。
第131の側面では、複数のLEDのうちの1つ以上のものに隣接して位置付けられる、1つ以上の光学コンポーネントをさらに備え、1つ以上の光学コンポーネントは、そこに隣接して位置付けられる1つ以上のLEDによって放出される光を拡散させるように構成される、側面130に記載の発光ユーザ入力デバイス。
第132の側面では、1つ以上の光学コンポーネントは、タッチ表面の下に位置付けられる、側面131に記載の発光ユーザ入力デバイス。
第133の側面では、1つ以上の光学コンポーネントは、タッチ表面と並んで位置付けられる、側面131または132に記載の発光ユーザ入力デバイス。
第134の側面では、1つ以上の光学コンポーネントは、少なくとも1つの光導波路を含む、側面131−133のいずれか1項に記載の発光ユーザ入力デバイス。
第135の側面では、複数のLEDは、タッチ表面の下にリング状に配列される、側面130−134のいずれか1項に記載の発光ユーザ入力デバイス。
第136の側面では、タッチ表面は、円形である、側面130−135のいずれか1項に記載の発光ユーザ入力デバイス。
第137の側面では、タッチ表面は、直径27mm〜40mmを伴う、円形表面である、側面136に記載の発光ユーザ入力デバイス。
第138の側面では、本体はさらに、発光ユーザ入力デバイスのユーザの手の中に保持されるように構成される、伸長部分を備える、側面130−137のいずれか1項に記載の発光ユーザ入力デバイス。
第139の側面では、本体はさらに、伸長部分に対して角付けられた上側部分を備える、側面138に記載の発光ユーザ入力デバイス。
第140の側面では、タッチ表面は、本体の上側部分の一部として含まれる、側面139に記載の発光ユーザ入力デバイス。
第141の側面では、ボタンをさらに備え、2つ以上のセンサは、ボタンの作動を検出するように構成される、圧力センサを備える、側面130−140のいずれか1項に記載の発光ユーザ入力デバイス。
第142の側面では、2つ以上のセンサは、慣性測定ユニット(IMU)を備える、側面130−141のいずれか1項に記載の発光ユーザ入力デバイス。
第143の側面では、ネットワークを経由して他の電子デバイスとの通信を確立するように構成される、通信インターフェースをさらに備える、側面130−142のいずれか1項に記載の発光ユーザ入力デバイス。
第144の側面では、ハードウェアプロセッサはさらに、ネットワークを経由して他の電子デバイスから受信されたメッセージに基づいて、複数のLEDのうちの1つ以上のものをアクティブ化するようにプログラムされる、側面143に記載の発光ユーザ入力デバイス。
第145の側面では、他の電子デバイスは、拡張現実(AR)システムのコンポーネントを含む、側面143または144に記載の発光ユーザ入力デバイス。
第146の側面では、発光ユーザ入力デバイスを較正するためのウェアラブルシステムであって、環境を結像するように構成される、外向きに面した結像システムと、光パターンを照明するように構成される、発光ユーザ入力デバイスと、第1の姿勢から第2の姿勢への発光ユーザ入力デバイスの移動と関連付けられた第1の移動データを入手し、発光ユーザ入力デバイスの第1の画像を外向きに面した結像システムから受信し、第1の画像は、光パターンの第1の画像を含み、発光ユーザ入力デバイスの第1の姿勢に対応し、発光ユーザ入力デバイスの第2の画像にアクセスし、第2の画像は、光パターンの第2の画像を含み、発光ユーザ入力デバイスの第2の姿勢に対応し、第1の画像および第2の画像を分析し、発光ユーザ入力デバイスの移動と関連付けられた第2の移動データを計算し、第1の移動データと第2の移動データとの間の相違を検出し、相違が閾値条件に達することの決定に応答して、発光ユーザ入力デバイスを較正するようにプログラムされる、ハードウェアプロセッサとを備える、ウェアラブルシステム。
第147の側面では、第1の姿勢および第2の姿勢は、発光ユーザ入力デバイスの位置および配向を含む、側面146に記載のウェアラブルシステム。
第148の側面では、第1の姿勢または第2の姿勢は、発光ユーザ入力デバイスの基点位置に対応する、側面146−147のいずれか1項に記載のウェアラブルシステム。
第149の側面では、光パターンは、後光と関連付けられ、第2の移動データを計算するために、ハードウェアプロセッサは、第1の画像および第2の画像内の後光の形状の変化を計算するようにプログラムされる、側面146−148のいずれか1項に記載のウェアラブルシステム。
第150の側面では、発光ユーザ入力デバイスは、トーテム、スマートフォン、またはスマートウォッチを含む、側面146−149のいずれか1項に記載のウェアラブルシステム。
第151の側面では、発光ユーザ入力デバイスを較正するために、ハードウェアプロセッサは、トーテムの慣性測定ユニット(IMU)を較正するようにプログラムされる、側面150に記載のウェアラブルシステム。
第152の側面では、光パターンは、発光ユーザ入力デバイスのユーザに、発光ユーザ入力デバイスを第1の姿勢から第2の姿勢に移動させるためのインジケーションを提供する、側面150または151に記載のウェアラブルシステム。
第153の側面では、ハードウェアプロセッサは、コンピュータビジョンアルゴリズムを適用し、第1の画像および第2の画像を分析するようにプログラムされる、側面146−152のいずれか1項に記載のウェアラブルシステム。
第154の側面では、外向きに面した結像システムは、仮想コンテンツをユーザに提示するように構成される、ウェアラブルデバイスの一部である、側面146−153のいずれか1項に記載のウェアラブルシステム。
第155の側面では、発光ユーザ入力デバイスは、発光ユーザ入力デバイスの較正が完了されたことの決定に応答して、別の光パターンを照明することができる、側面146−154のいずれか1項に記載のウェアラブルシステム。
第156の側面では、発光ユーザ入力デバイスを較正するためのウェアラブルシステムであって、環境を結像するように構成される、外向きに面した結像システムと、環境の画像を受信し、画像を分析し、発光ユーザ入力デバイスを識別し、発光ユーザ入力デバイスの第1の位置および照明される後光の第1の光パターンを決定し、少なくとも部分的に、画像の分析に基づいて、照明される後光の第2の光パターンを識別し、発光ユーザ入力デバイスの位置および配向に対する第1の変化を決定し、発光ユーザ入力デバイスの環境センサによって測定された発光ユーザ入力デバイスの移動データを受信し、発光ユーザ入力デバイスの位置および配向に対する第2の変化を計算し、第1の変化と第2の変化との間の差異を計算し、差異が閾値に達するかどうかを決定し、差異が閾値条件を超えることの決定に応答して、発光ユーザ入力デバイスの環境センサを較正するようにプログラムされる、ハードウェアプロセッサとを備える、ウェアラブルシステム。
第157の側面では、発光ユーザ入力デバイスは、トーテム、スマートウォッチ、またはスマートフォンのうちの少なくとも1つを含み、環境センサは、IMUを含む、側面156に記載のウェアラブルシステム。
第158の側面では、差異が閾値を超えないことの決定に応答して、ハードウェアプロセッサは、環境センサが較正されていることのインジケーションを提供するようにプログラムされる、側面156または157に記載のウェアラブルシステム。
第159の側面では、インジケーションは、発光ユーザ入力デバイス上の視覚的または触覚的フィードバックを含む、側面158に記載のウェアラブルシステム。
第160の側面では、第1の位置は、発光ユーザ入力デバイスの基点位置である、側面156−159のいずれか1項に記載のウェアラブルシステム。
第161の側面では、発光ユーザ入力デバイスを較正するためのウェアラブルシステムであって、発光ユーザ入力デバイスであって、発光デバイスの移動データを入手するように構成される、センサと、光パターンを出力するように構成される、発光部分と、発光ユーザ入力デバイスをある姿勢に位置付けるための第1のインジケーションを提供し、姿勢と関連付けられた発光ユーザ入力デバイスの移動データを入手し、移動データに基づいて、発光ユーザ入力デバイスを較正するようにプログラムされる、ハードウェアプロセッサとを備える、発光ユーザ入力デバイスを備える、ウェアラブルシステム。
第162の側面では、ハードウェアプロセッサはさらに、発光ユーザ入力デバイスが較正されていることの決定に応答して、発光ユーザ入力デバイスが較正されていることを知らせる第2のインジケーションを提供する、または発光ユーザ入力デバイスが較正されていないことの決定に応答して、発光ユーザ入力デバイスの較正を継続するようにプログラムされる、側面161に記載のウェアラブルシステム。
第163の側面では、第1または第2のインジケーションは、視覚的、聴覚的、または触覚的フィードバックのうちの少なくとも1つを含む、側面161または162に記載のウェアラブルシステム。
第164の側面では、ウェアラブルデバイスであって、環境を結像するように構成される、外向きに面した結像システムと、光パターンを照明するように構成される、発光ユーザ入力デバイスを識別し、ウェアラブルデバイスと発光ユーザ入力デバイスとの間の無線接続を確立し、発光ユーザ入力デバイスの画像を受光し、画像は、発光ユーザ入力デバイスと関連付けられたデバイス情報をエンコードする、照明された光パターンを含み、照明された光パターンの画像を分析し、発光ユーザ入力デバイスと関連付けられたデバイス情報を抽出し、発光ユーザ入力デバイスとウェアラブルデバイスをペアリングするようにプログラムされる、ハードウェアプロセッサとを備える、ウェアラブルデバイス。
第165の側面では、ハードウェアプロセッサはさらに、発光ユーザ入力デバイスとウェアラブルデバイスとの間のペアリングが成功したかどうかを決定し、ペアリングが成功したことの決定に応答して、発光ユーザ入力デバイスに、ペアリング成功を示す別の光パターンを照明するように命令するように構成される、側面164に記載のウェアラブルデバイス。
第166の側面では、無線接続は、Bluetooth(登録商標)接続を含む、側面164または165に記載のウェアラブルデバイス。
第167の側面では、発光ユーザ入力デバイスは、光パターンを出力するように構成される、LEDを備え、個別のLEDの照明は、デバイス情報を2進数形態で表す、側面164−166のいずれか1項に記載のウェアラブルデバイス。
第168の側面では、発光ユーザ入力デバイスであって、光パターンを出力するように構成される、複数の発光ダイオード(LED)と、ウェアラブルデバイスとのペアリングプロセスを開始し、ペアリングプロセスのための情報をエンコードする、第1の光パターンを照明し、ペアリングプロセスに関する応答をウェアラブルデバイスから受信し、コンピューティングデバイスが正常にペアリングされたことの決定に応答して、ペアリングが成功したことを示す、第2の光パターンを照明するようにプログラムされる、ハードウェアプロセッサとを備える、発光ユーザ入力デバイス。
第169の側面では、第1の光パターンは、ユーザ入力デバイスと関連付けられたデバイス情報または他のコンピューティングデバイスにペアリングプロセスを開始させるトリガメッセージのうちの少なくとも1つをエンコードする、側面168に記載の発光ユーザ入力デバイス。
第170の側面では、ウェアラブルデバイスからの応答は、発光ユーザ入力デバイスのさらなる情報に関する要求を含み、ハードウェアプロセッサは、要求への応答に対する返信における返信メッセージをエンコードする、第3の光パターンを照明するようにプログラムされる、側面168または169に記載の発光ユーザ入力デバイス。
第171の側面では、ハンドヘルドユーザ入力デバイスであって、光パターンを出力するように構成される、発光部分と、ハンドヘルドユーザ入力デバイスのステータスを決定し、ステータスと関連付けられた第1の光パターンにアクセスし、発光部分に、第1の光パターンに従って後光を表示するように命令し、ハンドヘルドユーザ入力デバイスのステータスへの更新を決定し、更新に応答して、発光部分に、第2の光パターンに従って後光を表示するように命令するようにプログラムされる、ハードウェアプロセッサとを備える、ハンドヘルドユーザ入力デバイス。
第172の側面では、ハンドヘルドユーザ入力デバイスはさらに、バッテリを備え、ステータスは、バッテリステータス、電力充電ステータス、ハンドヘルドユーザ入力デバイスと別のコンピューティングデバイスとの間の無線ペアリングステータス、またはハンドヘルドユーザ入力デバイスがアイドル状態であるかどうかのうちの少なくとも1つを含む、側面171に記載のハンドヘルドユーザ入力デバイス。
第173の側面では、発光部分は、光導波路と、発光ダイオード(LED)のリングとを備える、側面171または172に記載のハンドヘルドユーザ入力デバイス。
第174の側面では、ウェアラブルシステムのコンポーネントのステータスを提供するためのウェアラブルシステムであって、光パターンを出力するように構成される、発光部分を備える、ハンドヘルドユーザ入力デバイスと、ウェアラブルディスプレイと、バッテリパックとを備える、ウェアラブルデバイスと、ウェアラブルデバイスのステータスを決定し、ステータスと関連付けられた第1の光パターンにアクセスし、ハンドヘルドユーザ入力デバイスの発光部分に、第1の光パターンに従って後光を表示するように命令し、ウェアラブルデバイスのステータスに対する更新を決定し、更新に応答して、ハンドヘルドユーザ入力デバイスの発光部分に、第2の光パターンに従って後光を表示するように命令するようにプログラムされる、ハードウェアプロセッサとを備える、ウェアラブルシステム。
第175の側面では、ステータスは、バッテリステータス、電力充電ステータス、ウェアラブルデバイスとハンドヘルドユーザ入力デバイスとの間の無線ペアリングステータス、またはウェアラブルディスプレイのステータスのうちの少なくとも1つを含む、側面174に記載のウェアラブルシステム。
第176の側面では、ハンドヘルドユーザ入力デバイスであって、ユーザ入力を受け取るように構成される、タッチパッドと、光パターンを出力するように構成される、発光部分であって、タッチパッドを少なくとも部分的に囲繞する、発光部分と、コンテキスト情報に基づいて、タッチパッドと関連付けられた利用可能なユーザインターフェース動作を識別し、利用可能なユーザインターフェース動作と関連付けられた光パターンを決定し、光パターンに従って後光を表示するための命令を生成し、発光部分に伝送し、ユーザ入力をタッチパッド上で受信し、光パターンの場所または移動を更新し、ユーザ入力を反映するようにプログラムされる、ハードウェアプロセッサとを備える、ハンドヘルドユーザ入力デバイス。
第177の側面では、コンテキスト情報は、ハンドヘルドユーザ入力デバイスの環境、ハンドヘルドユーザ入力デバイスと関連付けられた利用可能な入力、ハンドヘルドユーザ入力デバイスが相互作用するように構成される、オブジェクトと関連付けられた情報、またはハンドヘルドユーザ入力デバイスとペアリングされるウェアラブルデバイスの特性のうちの少なくとも1つを含む、側面176に記載のハンドヘルドユーザ入力デバイス。
第178の側面では、発光部分は、光導波路と、LEDのリングとを備える、側面176または177に記載のハンドヘルドユーザ入力デバイス。
第179の側面では、発光部分は、ユーザ入力を受け取るように構成され、ハードウェアプロセッサはさらに、少なくとも部分的に、光導波路と関連付けられたユーザ入力に基づいて、後光を表示するようにプログラムされる、側面176−178のいずれか1項に記載のハンドヘルドユーザ入力デバイス。
第180の側面では、ユーザ入力は、スワイプ、タップ、押下、またはタッチのうちの少なくとも1つを含み、ユーザ入力デバイスは、トーテム、スマートウォッチ、またはスマートフォンのうちの少なくとも1つを含む、側面176−179のいずれか1項に記載のハンドヘルドユーザ入力デバイス。
第181の側面では、ハードウェアプロセッサはさらに、受信されたユーザ入力が不適切であるかどうかを決定し、ユーザ入力が不適切であることの決定に応答して、光パターンを更新し、ユーザ入力が不適切であることを反映するように構成される、側面176−180のいずれか1項に記載のハンドヘルドユーザ入力デバイス。
第182の側面では、光パターンの場所または移動を更新し、ユーザ入力を反映するために、プロセッサは、光パターンの色を更新する、光パターンの形状を更新する、光パターンのサイズまたは長さを更新する、または光パターンの視覚的効果を更新するようにプログラムされる、側面176−181のいずれか1項に記載のハンドヘルドユーザ入力デバイス。
第183の側面では、ハンドヘルドユーザ入力デバイスであって、光パターンを出力するように構成される、発光部分であって、タッチパッドを少なくとも部分的に囲繞する、発光部分と、ユーザ入力を受信するように構成される、複数の相互作用可能領域と、複数の相互作用可能領域の中の相互作用可能領域内のユーザ入力を検出し、相互作用可能領域内で検出されたユーザ入力と関連付けられた光パターンにアクセスし、発光部分に、光パターンを含む後光を提示するように命令するようにプログラムされる、ハードウェアプロセッサとを備える、ハンドヘルドユーザ入力デバイス。
第184の側面では、ハンドヘルドユーザ入力デバイスはさらに、タッチ表面を備え、発光部分はさらに、光導波路を備え、複数の相互作用可能領域は、光導波路と関連付けられた第1の相互作用可能領域と、タッチ表面と関連付けられた第2の相互作用可能領域とを備える、側面183に記載のハンドヘルドユーザ入力デバイス。
第185の側面では、ユーザ入力が第1の相互作用可能領域内にあることの検出に応答して、ハードウェアプロセッサは、第1の相互作用可能領域内のユーザ入力と関連付けられた光パターンの第1の場所または移動にアクセスするようにプログラムされ、ユーザ入力が第2の相互作用可能領域内にあることの検出に応答して、ハードウェアプロセッサは、第2の相互作用可能領域内のユーザ入力と関連付けられた光パターンの第2の場所または移動にアクセスようにプログラムされる、側面184に記載のハンドヘルドユーザ入力デバイス。
第186の側面では、光パターンは、少なくとも部分的に、ハンドヘルドユーザ入力デバイスと関連付けられたコンテキスト情報に基づいて決定される、側面183−185のいずれか1項に記載のハンドヘルドユーザ入力デバイス。
第187の側面では、ユーザ入力は、スワイプ、タップ、押下、またはタッチのうちの少なくとも1つを含む、側面183−186のいずれか1項に記載のハンドヘルドユーザ入力デバイス。
第188の側面では、後光は、ある色、ある弧長、またはある視覚的効果を有する、弧状領域を含む、側面183−187のいずれか1項に記載のハンドヘルドユーザ入力デバイス。
第189の側面では、ハードウェアプロセッサはさらに、複数の相互作用可能領域の中の相互作用可能領域内の付加的ユーザ入力を検出し、付加的ユーザ入力の検出に応答して、後光を更新するようにプログラムされる、側面183−188のいずれか1項に記載のハンドヘルドユーザ入力デバイス。
第190の側面では、ハンドヘルドユーザ入力デバイスであって、光パターンを出力するように構成される、発光部分と、ユーザの環境内のオブジェクトを識別し、オブジェクトと関連付けられたコンテキスト情報にアクセスし、少なくとも部分的に、コンテキスト情報に基づいて、光パターンの場所または移動を決定し、発光部分に、光パターンに従って照明するように命令するようにプログラムされる、ハードウェアプロセッサとを備える、ハンドヘルドユーザ入力デバイス。
第191の側面では、オブジェクトは、物理的オブジェクトまたは仮想オブジェクトのうちの少なくとも1つを含む、側面190に記載のハンドヘルドユーザ入力デバイス。
第192の側面では、光パターンの場所または移動は、後光の明度、位置、形状、サイズ、または色のうちの少なくとも1つを含む、側面190または191に記載のハンドヘルドユーザ入力デバイス。
第193の側面では、オブジェクトと関連付けられたコンテキスト情報は、オブジェクトの場所、オブジェクトの緊急度、オブジェクトのタイプ、オブジェクトの性質、オブジェクトと関連付けられた情報の量、またはユーザの選好のうちの少なくとも1つを含む、側面190−192のいずれか1項に記載のハンドヘルドユーザ入力デバイス。
第194の側面では、ウェアラブルシステムのコンポーネントのステータスを提供するためのウェアラブルシステムであって、光パターンを出力するように構成される、発光部分を備える、ハンドヘルドユーザ入力デバイスと、仮想コンテンツをユーザに提示するように構成される、ウェアラブルデバイスと、ユーザの環境内のオブジェクトを識別し、オブジェクトと関連付けられたコンテキスト情報にアクセスし、少なくとも部分的に、コンテキスト情報に基づいて、光パターンの場所または移動を決定し、ハンドヘルドユーザ入力デバイスの発光部分に、光パターンに従って照明するように命令するようにプログラムされる、ハードウェアプロセッサとを備える、ウェアラブルシステム。
第195の側面では、コンテキスト情報は、少なくとも部分的に、ウェアラブルデバイスまたはハンドヘルドユーザ入力デバイスの環境センサによって入手されたデータに基づいて決定される、側面194に記載のウェアラブルシステム。
第196の側面では、光パターンは、色、形状、サイズまたは長さ、または視覚的効果を含む、側面190−193のいずれか1項に記載のハンドヘルドユーザ入力デバイスまたは側面194−195のいずれか1項に記載のウェアラブルシステム。
第197の側面では、ハンドヘルドユーザ入力デバイスであって、光パターンを出力するように構成される、発光部分と、ユーザの環境内の仮想オブジェクトを識別し、仮想オブジェクトのステータスを決定し、少なくとも部分的に、仮想オブジェクトのステータスに基づいて、光パターンの場所または移動を決定し、発光部分に、ステータスを示す光パターンに従って照明するように命令するようにプログラムされる、ハードウェアプロセッサとを備える、ハンドヘルドユーザ入力デバイス。
第198の側面では、ハードウェアプロセッサはさらに、仮想オブジェクトのステータスを示すアラートを生成するようにプログラムされ、アラートは、光パターン内にエンコードされる、側面197に記載のハンドヘルドユーザ入力デバイス。
第199の側面では、仮想オブジェクトのステータスは、ユーザによる仮想オブジェクトとの現在の相互作用、仮想オブジェクトが新しい情報を受信したかどうか、仮想オブジェクトがアイドル状態であるかどうか、または仮想オブジェクトがエラー状態であるかどうかのうちの少なくとも1つを含む、側面197または198に記載のハンドヘルドユーザ入力デバイス。
第200の側面では、ウェアラブルシステムのコンポーネントのステータスを提供するためのウェアラブルシステムであって、光パターンを出力するように構成される、発光部分を備える、ハンドヘルドユーザ入力デバイスと、ユーザの環境内の仮想オブジェクトを識別し、仮想オブジェクトのステータスを決定し、少なくとも部分的に、仮想オブジェクトのステータスに基づいて、光パターンの場所または移動を決定し、発光部分に、ステータスを示す光パターンに従って照明するように命令するようにプログラムされる、ハードウェアプロセッサとを備える、ウェアラブルシステム。
第201の側面では、ハンドヘルドユーザ入力デバイスの光パターンの場所または移動を構成するためのシステムであって、光パターンの場所または移動と関連付けられた入力をハンドヘルドユーザ入力デバイス上で受信し、ハンドヘルドユーザ入力デバイスは、光パターンを出力するように構成される、発光部分を備え、光パターンの場所または移動の可視化をハンドヘルドユーザ入力デバイスの視覚的表現上に提供し、ハンドヘルドユーザ入力デバイスと関連付けられた命令を更新し、光パターンの場所または移動を反映するように構成される、プログラミングユーザインターフェースを備える、システム。
第202の側面では、光パターンは、色、長さ、形状、視覚的効果、または発光部分に対する位置と関連付けられる、側面201に記載のシステム。
第203の側面では、視覚的効果は、フェードイン、フェードアウト、明滅、点滅、回転、色の変化、形状の変化、長さの変化、または発光部分に対する位置の変化を含む、側面202に記載のシステム。
第204の側面では、プログラミングユーザインターフェースはさらに、可視化タブ、ソースコードタブ、またはパターン調節ツールを表示するように構成される、側面201−203のいずれか1項に記載のシステム。
第205の側面では、頭部搭載型ディスプレイシステムであって、ハンドヘルドユーザ入力デバイスであって、ユーザ入力を受け取るように構成される、タッチパッドと、複数の光パターンから第1の光パターンを出力するように構成される、発光部分であって、タッチパッドを少なくとも部分的に囲繞する発光部分とを備える、ハンドヘルドユーザ入力デバイスと、仮想画像を頭部搭載型ディスプレイシステムのユーザに提示するように構成される、頭部搭載型ディスプレイとを備える、頭部搭載型ディスプレイシステム。
第206の側面では、頭部搭載型ディスプレイは、明視野ディスプレイまたは仮想画像を複数の深度平面に提示するように構成されるディスプレイを含む、側面205に記載の頭部搭載型ディスプレイシステム。
第207の側面では、ハンドヘルドユーザ入力デバイスは、(1)タッチパッドを介して受信されたユーザ入力、(2)発光部分のタッチセンサ式部分から受信されたユーザ入力、(3)コンテキスト情報、または(4)頭部搭載型ディスプレイからの通信のうちの1つ以上のものに応答して、第1の光パターンを複数の光パターンからの第2の光パターンに変化させるように構成される、側面205または206に記載の頭部搭載型ディスプレイシステム。
側面146−207を参照して説明される発光部分は、個々に、または組み合わせて、光導波路、LED、またはユーザ入力デバイスの他のコンポーネントを含んでもよく、これは、光パターンの照明を促進する。側面1−128は、語句「発光アセンブリ」を使用するが、これらの側面はまた、代わりに、「発光部分」を用いてもよい。
付加的考慮点
本明細書に説明される、および/または添付される図に描写されるプロセス、方法、およびアルゴリズムはそれぞれ、具体的かつ特定のコンピュータ命令を実行するように構成される、1つ以上の物理的コンピューティングシステム、ハードウェアコンピュータプロセッサ、特定用途向け回路、および/または電子ハードウェアによって実行される、コードモジュールにおいて具現化され、それによって完全または部分的に自動化され得る。例えば、コンピューティングシステムは、具体的コンピュータ命令とともにプログラムされた汎用コンピュータ(例えば、サーバ)または専用コンピュータ、専用回路等を含むことができる。コードモジュールは、実行可能プログラムにコンパイルおよびリンクされる、動的リンクライブラリ内にインストールされる、またはインタープリタ型プログラミング言語において書き込まれ得る。いくつかの実装では、特定の動作および方法が、所与の機能に特有の回路によって実施され得る。
さらに、本開示の機能性のある実装は、十分に数学的、コンピュータ的、または技術的に複雑であるため、(適切な特殊化された実行可能命令を利用する)特定用途向けハードウェアまたは1つ以上の物理的コンピューティングデバイスは、例えば、関与する計算の量または複雑性に起因して、または結果を実質的にリアルタイムで提供するために、機能性を実施する必要があり得る。例えば、ビデオは、多くのフレームを含み得、各フレームは、数百万のピクセルを有し、具体的にプログラムされたコンピュータハードウェアは、商業的に妥当な時間量において所望の画像処理タスクまたは用途を提供するようにビデオデータを処理する必要がある。
コードモジュールまたは任意のタイプのデータは、ハードドライブ、ソリッドステートメモリ、ランダムアクセスメモリ(RAM)、読取専用メモリ(ROM)、光学ディスク、揮発性または不揮発性記憶装置、同一物の組み合わせ、および/または同等物を含む、物理的コンピュータ記憶装置等の任意のタイプの非一過性コンピュータ可読媒体上に記憶され得る。本方法およびモジュール(またはデータ)はまた、無線ベースおよび有線/ケーブルベースの媒体を含む、種々のコンピュータ可読伝送媒体上で生成されたデータ信号として(例えば、搬送波または他のアナログまたはデジタル伝搬信号の一部として)伝送され得、種々の形態(例えば、単一または多重化アナログ信号の一部として、または複数の離散デジタルパケットまたはフレームとして)をとり得る。開示されるプロセスまたはプロセスステップの結果は、任意のタイプの非一過性有形コンピュータ記憶装置内に持続的または別様に記憶され得る、またはコンピュータ可読伝送媒体を介して通信され得る。
本明細書に説明される、および/または添付される図に描写されるフロー図における任意のプロセス、ブロック、状態、ステップ、または機能性は、プロセスにおいて具体的機能(例えば、論理または算術)またはステップを実装するための1つ以上の実行可能命令を含む、コードモジュール、セグメント、またはコードの一部を潜在的に表すものとして理解されたい。種々のプロセス、ブロック、状態、ステップ、または機能性は、組み合わせられる、再配列される、追加される、削除される、修正される、または別様に本明細書に提供される例証的実施例から変更されることができる。いくつかの実施形態では、付加的または異なるコンピューティングシステムまたはコードモジュールが、本明細書に説明される機能性のいくつかまたは全てを実施し得る。本明細書に説明される方法およびプロセスはまた、任意の特定のシーケンスに限定されず、それに関連するブロック、ステップ、または状態は、適切な他のシーケンスで、例えば、連続して、並行して、またはある他の様式で実施されることができる。タスクまたはイベントが、開示される例示的実施形態に追加される、またはそれから除去され得る。さらに、本明細書に説明される実装における種々のシステムコンポーネントの分離は、例証を目的とし、全ての実装においてそのような分離を要求するものとして理解されるべきではない。説明されるプログラムコンポーネント、方法、およびシステムは、概して、単一のコンピュータ製品においてともに統合される、または複数のコンピュータ製品にパッケージ化され得ることを理解されたい。多くの実装変形例が、可能である。
本プロセス、方法、およびシステムは、ネットワーク(または分散)コンピューティング環境において実装され得る。ネットワーク環境は、企業全体コンピュータネットワーク、イントラネット、ローカルエリアネットワーク(LAN)、広域ネットワーク(WAN)、パーソナルエリアネットワーク(PAN)、クラウドコンピューティングネットワーク、クラウドソースコンピューティングネットワーク、インターネット、およびワールドワイドウェブを含む。ネットワークは、有線または無線ネットワークまたは任意の他のタイプの通信ネットワークであり得る。
本開示のシステムおよび方法は、それぞれ、いくつかの革新的側面を有し、そのうちのいかなるものも、本明細書に開示される望ましい属性に単独で関与しない、またはそのために要求されない。上記に説明される種々の特徴およびプロセスは、相互に独立して使用され得る、または種々の方法で組み合わせられ得る。全ての可能な組み合わせおよび副次的組み合わせが、本開示の範囲内に該当することが意図される。本開示に説明される実装の種々の修正が、当業者に容易に明白であり得、本明細書に定義される一般原理は、本開示の精神または範囲から逸脱することなく、他の実装に適用され得る。したがって、請求項は、本明細書に示される実装に限定されることを意図されず、本明細書に開示される本開示、原理、および新規の特徴と一貫する最も広い範囲を与えられるべきである。
別個の実装の文脈において本明細書に説明されるある特徴はまた、単一の実装における組み合わせにおいて実装されることができる。逆に、単一の実装の文脈において説明される種々の特徴もまた、複数の実装において別個に、または任意の好適な副次的組み合わせにおいて実装されることができる。さらに、特徴がある組み合わせにおいて作用するものとして上記に説明され、さらに、そのようなものとして最初に請求され得るが、請求される組み合わせからの1つ以上の特徴は、いくつかの場合では、組み合わせから削除されることができ、請求される組み合わせは、副次的組み合わせまたは副次的組み合わせの変形例を対象とし得る。いかなる単一の特徴または特徴のグループも、あらゆる実施形態に必要または必須ではない。
とりわけ、「〜できる(can)」、「〜し得る(could)」、「〜し得る(might)」、「〜し得る(may)」、「例えば(e.g.)」、および同等物等、本明細書で使用される条件文は、別様に具体的に記載されない限り、または使用されるような文脈内で別様に理解されない限り、概して、ある実施形態が、ある特徴、要素、および/またはステップを含む一方、他の実施形態がそれらを含まないことを伝えることが意図される。したがって、そのような条件文は、概して、特徴、要素、および/またはステップが、1つ以上の実施形態に対していかようにも要求されること、または1つ以上の実施形態が、著者の入力または促しの有無を問わず、これらの特徴、要素、および/またはステップが任意の特定の実施形態において含まれる、または実施されるべきかどうかを決定するための論理を必然的に含むことを示唆することを意図されない。用語「〜を備える(comprising)」、「〜を含む(including)」、「〜を有する(having)」、および同等物は、同義語であり、非限定的方式で包括的に使用され、付加的要素、特徴、行為、動作等を除外しない。また、用語「または」は、その包括的意味において使用され(およびその排他的意味において使用されず)、したがって、例えば、要素のリストを接続するために使用されると、用語「または」は、リスト内の要素のうちの1つ、いくつか、または全てを意味する。加えて、本願および添付される請求項で使用されるような冠詞「a」、「an」、および「the」は、別様に規定されない限り、「1つ以上の」または「少なくとも1つ」を意味するように解釈されるべきである。
本明細書で使用されるように、項目のリスト「〜のうちの少なくとも1つ」を指す語句は、単一の要素を含む、それらの項目の任意の組み合わせを指す。ある実施例として、「A、B、またはCのうちの少なくとも1つ」は、A、B、C、AおよびB、AおよびC、BおよびC、およびA、B、およびCを網羅することが意図される。語句「X、Y、およびZのうちの少なくとも1つ」等の接続文は、別様に具体的に記載されない限り、概して、項目、用語等がX、Y、またはZのうちの少なくとも1つであり得ることを伝えるために使用されるような文脈で別様に理解される。したがって、そのような接続文は、概して、ある実施形態が、Xのうちの少なくとも1つ、Yのうちの少なくとも1つ、およびZのうちの少なくとも1つがそれぞれ存在するように要求することを示唆することを意図されない。
同様に、動作は、特定の順序で図面に描写され得るが、これは、望ましい結果を達成するために、そのような動作が示される特定の順序で、または連続的順序で実施される、または全ての図示される動作が実施される必要はないと認識されるべきである。さらに、図面は、フローチャートの形態で1つ以上の例示的プロセスを図式的に描写し得る。しかしながら、描写されない他の動作も、図式的に図示される例示的方法およびプロセス内に組み込まれることができる。例えば、1つ以上の付加的動作が、図示される動作のいずれかの前に、その後に、それと同時に、またはその間に実施されることができる。加えて、動作は、他の実装において再配列される、または再順序付けられ得る。ある状況では、マルチタスクおよび並列処理が、有利であり得る。さらに、上記に説明される実装における種々のシステムコンポーネントの分離は、全ての実装におけるそのような分離を要求するものとして理解されるべきではなく、説明されるプログラムコンポーネントおよびシステムは、概して、単一のソフトウェア製品においてともに統合される、または複数のソフトウェア製品にパッケージ化され得ることを理解されたい。加えて、他の実装も、以下の請求項の範囲内である。いくつかの場合では、請求項に列挙されるアクションは、異なる順序で実施され、依然として、望ましい結果を達成することができる。

Claims (129)

  1. システムであって、
    ユーザ入力デバイスの発光アセンブリであって、前記発光アセンブリは、環境内のオブジェクトの情報を提供するために、複数の光パターンを照明するように構成される、発光アセンブリと、
    前記発光アセンブリに通信可能に結合されたハードウェアプロセッサであって、
    ユーザの環境内のオブジェクトを識別することと、
    前記オブジェクトと関連付けられたコンテキスト情報にアクセスすることと、
    少なくとも部分的に、前記コンテキスト情報に基づいて、前記発光アセンブリによって照明された光パターンの特性を決定することと、
    前記発光アセンブリに、前記光パターンに従って照明するように命令することと
    を行うようにプログラムされる、ハードウェアプロセッサと
    を備える、システム。
  2. 前記オブジェクトは、物理的オブジェクトまたは仮想オブジェクトのうちの少なくとも1つを含む、請求項1に記載のシステム。
  3. 前記仮想オブジェクトのステータスは、ユーザによる前記仮想オブジェクトとの現在の相互作用、前記仮想オブジェクトが新しい情報を受信したかどうか、前記仮想オブジェクトがアイドル状態であるかどうか、または前記仮想オブジェクトがエラー状態であるかどうかのうちの少なくとも1つを含む、請求項2に記載のシステム。
  4. 前記光パターンの特性は、明度、位置、形状、サイズ、または色のうちの少なくとも1つを含む、請求項1に記載のシステム。
  5. 前記オブジェクトと関連付けられた前記コンテキスト情報は、前記オブジェクトの場所、前記オブジェクトの緊急度、前記オブジェクトのタイプ、前記オブジェクトの性質、前記オブジェクトと関連付けられた情報の量、または前記ユーザの選好のうちの少なくとも1つを含む、請求項1に記載のシステム。
  6. 前記システムはさらに、ウェアラブルディスプレイデバイスを備え、前記オブジェクトは、ユーザのビューから不可視である、または前記ウェアラブルディスプレイデバイスを介して外側にあり、前記ハードウェアプロセッサは、前記光パターンのサイズ、形状、または色のうちの少なくとも1つを決定し、前記オブジェクトを位置特定するためのキューをユーザに提供するようにプログラムされる、請求項1に記載のシステム。
  7. オブジェクトは、仮想コンテンツをユーザに提示するためのウェアラブルシステムのコンポーネントであり、前記光パターンは、前記ウェアラブルシステムのコンポーネントのステータスを示す、請求項1に記載のシステム。
  8. 前記コンポーネントは、前記ユーザ入力デバイス、ウェアラブルディスプレイデバイス、またはバッテリパックのうちの少なくとも1つを含む、請求項7に記載のシステム。
  9. 前記ステータスは、バッテリステータス、電力充電ステータス、前記ウェアラブルディスプレイデバイスと前記ユーザ入力デバイスとの間の無線ペアリングステータス、前記ユーザ入力デバイスの較正プロセスのステータス、または前記ウェアラブルディスプレイデバイスのステータスのうちの少なくとも1つを含む、請求項1に記載のシステム。
  10. 前記光パターンは、前記オブジェクトと関連付けられたアラートまたは情報をエンコードする、請求項1に記載のシステム。
  11. 前記ステータスは、
    ユーザによる前記オブジェクトとの現在の相互作用、
    前記オブジェクトが新しい情報を受信したかどうか、
    前記オブジェクトがアイドル状態にあるかどうか、または
    前記オブジェクトがエラー状態にあるかどうか
    のうちの少なくとも1つを含む、請求項1に記載のシステム。
  12. 前記光パターンの特性は、アプリケーションプログラミングインターフェースを介して、ユーザによって構成可能である、請求項1に記載のシステム。
  13. 発光ユーザ入力デバイスであって、
    ユーザ入力を受け取るように構成されるタッチコンポーネントと、
    複数の光パターンを出力するように構成される発光アセンブリであって、前記発光アセンブリは、少なくとも部分的に、前記タッチコンポーネントを囲繞する、発光アセンブリと、
    前記タッチコンポーネントおよび前記発光アセンブリに通信可能に結合されたハードウェアプロセッサであって、
    コンテキスト情報に基づいて、前記タッチコンポーネントによってサポートされるユーザインターフェース動作を識別することと、
    前記ユーザインターフェース動作と関連付けられた第1の光パターンを決定することと、
    前記第1の光パターンを有する後光を表示するための命令を生成し、前記発光アセンブリに伝送することと、
    ユーザ入力を前記タッチコンポーネント上で受信することと、
    前記後光を第2の光パターンで更新し、前記ユーザ入力を反映することと
    を行うようにプログラムされる、ハードウェアプロセッサと
    を備える、発光ユーザ入力デバイス。
  14. 前記コンテキスト情報は、
    前記ユーザの環境、前記発光ユーザ入力デバイスによってサポートされる入力のタイプ、
    前記ハンドヘルドユーザ入力デバイスが相互作用するように構成されるオブジェクトと関連付けられた情報、または
    前記ハンドヘルドユーザ入力デバイスと関連付けられたウェアラブルデバイスの特性
    のうちの少なくとも1つを含む、請求項13に記載の発光ユーザ入力デバイス。
  15. 前記発光アセンブリは、光導波路と、LEDのリングとを備える、請求項13に記載の発光ユーザ入力デバイス。
  16. 前記発光アセンブリは、複数のユーザ入力を受け取るように構成され、前記ハードウェアプロセッサはさらに、少なくとも部分的に、前記光導波路を作動させることによってサポートされる前記複数のユーザ入力に基づいて、後光を表示するようにプログラムされる、請求項13に記載の発光ユーザ入力デバイス。
  17. 前記ユーザ入力は、スワイプ、タップ、押下、またはタッチジェスチャのうちの少なくとも1つを含む、請求項13に記載の発光ユーザ入力デバイス。
  18. 前記発光ユーザ入力デバイスは、トーテム、スマートウォッチ、またはスマートフォンのうちの少なくとも1つを含む、請求項13に記載の発光ユーザ入力デバイス。
  19. 前記第1の光パターンは、ユーザに、前記ユーザインターフェース動作が前記発光ユーザ入力デバイスによってサポートされることのキューを提供する、請求項13に記載の発光ユーザ入力デバイス。
  20. 前記ハードウェアプロセッサはさらに、
    前記コンテキスト情報に基づいて、前記受信されたユーザ入力が不適切なであるかどうかを決定する
    ようにプログラムされ、
    前記第2の光パターンは、前記受信されたユーザ入力が不適切であることの決定に応答して、前記受信されたユーザ入力が不適切であることの視覚的アラートを提供する、請求項13に記載の発光ユーザ入力デバイス。
  21. 前記後光の少なくとも一部は、前記第1の光パターンと比較して、前記第2の光パターンにおいてより明るいまたはより大きいように現れる、請求項13に記載の発光ユーザ入力デバイス。
  22. 前記複数の光パターンの特性は、アプリケーションプログラミングインターフェースを介して、ユーザによって構成可能である、請求項13に記載の発光ユーザ入力デバイス。
  23. 前記特性は、弧の場所または移動パターン、色、明度、形状、またはサイズのうちの少なくとも1つを含む、請求項22に記載の発光ユーザ入力デバイス。
  24. 前記第2の光パターンは、前記ユーザ入力に応答して、バッテリステータス、電力充電ステータス、前記ハンドヘルドユーザ入力デバイスと別のコンピューティングデバイスとの間の無線ペアリングステータス、または前記ハンドヘルドユーザ入力デバイスがアイドル状態であるかどうかのうちの少なくとも1つを示す、請求項13に記載の発光ユーザ入力デバイス。
  25. 方法であって、
    ハードウェアプロセッサの制御下で、
    コンテキスト情報に基づいて、発光ユーザ入力デバイスによってサポートされるユーザ入力のタイプを識別することであって、前記発光ユーザ入力デバイスは、複数の光パターンを照明するための第1の要素と、ユーザ入力を受信するための第2の要素とを備える、ことと、
    前記サポートされるユーザ入力のタイプと関連付けられた第1の光パターンを決定することと、
    前記第1の光パターンを有する後光を照明するための命令を生成し、前記第1の要素に伝送することと、
    前記発光ユーザ入力デバイス上のユーザ入力に基づいて、第2の光パターンを決定することと、
    前記ユーザ入力に応答して、前記後光を前記第2の光パターンに更新することと
    を含む、方法。
  26. 前記第1の要素はさらに、別のユーザ入力を受信するように構成され、前記第1の光パターンを決定するための前記ユーザ入力のタイプは、前記第1の要素によってサポートされる他のユーザ入力と関連付けられる、請求項25に記載の方法。
  27. 前記コンテキスト情報は、
    前記ユーザの環境、前記発光ユーザ入力デバイスによってサポートされる入力のタイプ、
    前記ハンドヘルドユーザ入力デバイスが相互作用するように構成されるオブジェクトと関連付けられた情報、または
    前記ハンドヘルドユーザ入力デバイスと関連付けられたウェアラブルデバイスの特性
    のうちの少なくとも1つを含む、請求項25に記載の方法。
  28. 前記ユーザ入力のタイプは、スワイプ、タップ、押下、またはタッチ入力のうちの少なくとも1つを含む、請求項25に記載の方法。
  29. 前記第1の光パターンは、ユーザに、前記ユーザ入力のタイプが前記発光ユーザ入力デバイスによってサポートされることのキューを提供する、請求項25に記載の方法。
  30. 前記コンテキスト情報に基づいて、前記発光ユーザ入力デバイスによって受信されたユーザ入力が不適切であるかどうかを決定すること
    をさらに含み、
    前記第2の光パターンは、前記ユーザ入力が不適切であることの決定に応答して、前記ユーザ入力が不適切であることの視覚的アラートを提供する、請求項25に記載の方法。
  31. 前記後光の少なくとも一部は、前記第1の光パターンと比較して、前記第2の光パターンにおいてより明るいまたはより大きいように現れる、請求項25に記載の方法。
  32. 発光ユーザ入力デバイスであって、
    ユーザ入力を受信するように構成される複数の相互作用可能領域であって、前記複数の相互作用可能領域の少なくとも1つの相互作用可能領域は、前記発光ユーザ入力デバイスの発光アセンブリの一部を含む、複数の相互作用可能領域と、
    ハードウェアプロセッサであって、
    前記発光ユーザ入力デバイスのユーザの作動を検出することと、
    ユーザの作動に対応する前記複数の相互作用可能領域の中の相互作用可能領域を決定することと、
    少なくとも、前記作動のタイプおよび前記作動と関連付けられた前記相互作用領域に基づいて、前記ユーザの作動をユーザインターフェース動作を実施するためのユーザ入力に変換することと、
    前記ユーザ入力に応答して、前記発光アセンブリに、光パターンを照明するように命令することと
    を行うようにプログラムされる、ハードウェアプロセッサと
    を備える、発光ユーザ入力デバイス。
  33. 前記発光ユーザ入力デバイスはさらに、タッチ表面を備え、前記発光アセンブリは、光導波路を備え、前記複数の相互作用可能領域は、前記光導波路と関連付けられた第1の相互作用可能領域と、前記タッチ表面と関連付けられた第2の相互作用可能領域とを備える、請求項32に記載の発光ユーザ入力デバイス。
  34. 前記ユーザが前記第1の相互作用可能領域を作動させたことの検出に応答して、前記ハードウェアプロセッサは、前記発光アセンブリに、前記第1の相互作用可能領域内の前記ユーザ入力と関連付けられた第1の光パターンを照明させるようにプログラムされ、前記ユーザが前記第2の相互作用可能領域を作動させたことの検出に応答して、前記ハードウェアプロセッサは、前記発光アセンブリに、前記第2の相互作用可能領域内の前記ユーザ入力と関連付けられた第2の光パターンを照明させるようにプログラムされる、請求項33に記載の発光ユーザ入力デバイス。
  35. 前記光パターンは、少なくとも部分的に、前記発光ユーザ入力デバイスと関連付けられたコンテキスト情報に基づいて決定される、請求項32に記載の発光ユーザ入力デバイス。
  36. 前記ユーザの作動は、スワイプ、タップ、押下、またはタッチジェスチャのうちの少なくとも1つを含む、請求項32に記載の発光ユーザ入力デバイス。
  37. 前記光パターンは、色、弧長、または視覚的効果を有する弧状領域を含む、請求項32に記載の発光ユーザ入力デバイス。
  38. 前記ハードウェアプロセッサはさらに、前記ユーザ入力に基づいて、ウェアラブルデバイスと通信し、前記ウェアラブルデバイスに、ユーザインターフェース動作を実施させるようにプログラムされる、請求項32に記載の発光ユーザ入力デバイス。
  39. 方法であって、
    ハードウェアプロセッサの制御下で、
    発光ユーザ入力デバイスのユーザの作動を検出することであって、前記発光ユーザ入力デバイスは、複数の相互作用可能領域を備える、ことと、
    ユーザの作動に対応する前記複数の相互作用可能領域の中の相互作用可能領域を決定することと、
    少なくとも、前記作動のタイプおよび前記作動と関連付けられた前記相互作用領域に基づいて、前記ユーザの作動をユーザインターフェース動作を実施するためのユーザ入力に変換することと、
    前記ユーザ入力に応答して、発光ユーザ入力デバイスの発光アセンブリに、光パターンを照明させることと
    を含む、方法。
  40. 前記複数の相互作用可能領域は、第1のタイプのユーザ入力をサポートする第1の相互作用可能領域と、第2のタイプのユーザ入力をサポートする第2の相互作用可能領域とを備える、請求項39に記載の方法。
  41. 前記ユーザが前記第1の相互作用可能領域を作動させたことの検出に応答して、前記ハードウェアプロセッサは、前記発光アセンブリに、前記第1の相互作用可能領域内の前記ユーザ入力と関連付けられた第1の光パターンを照明させるようにプログラムされ、前記ユーザが前記第2の相互作用可能領域を作動させたことの検出に応答して、前記ハードウェアプロセッサは、前記発光アセンブリに、前記第2の相互作用可能領域内の前記ユーザ入力と関連付けられた第2の光パターンを照明させるようにプログラムされる、請求項40に記載の方法。
  42. 前記第1のタイプのユーザ入力または前記第2のタイプのユーザ入力のうちの少なくとも1つは、ウェアラブルシステムとのユーザの相互作用と関連付けられたコンテキスト情報に依存し、前記コンテキスト情報は、ユーザが相互作用しているアプリケーションのタイプ、前記複数の相互作用可能領域によってサポートされる利用可能なユーザ入力、または前記ユーザの仮想環境のうちの少なくとも1つを含む、請求項40に記載の方法。
  43. 前記発光ユーザ入力デバイスは、1つ以上の相互作用可能領域に分割されるタッチ表面を備える、請求項39に記載の方法。
  44. 前記光パターンは、少なくとも部分的に、前記発光ユーザ入力デバイスと関連付けられたコンテキスト情報に基づいて決定される、請求項39に記載の方法。
  45. 前記複数の相互作用可能領域は、前記発光ユーザ入力デバイスの発光アセンブリを含む、請求項39に記載の方法。
  46. 前記ユーザの作動は、スワイプ、タップ、押下、またはタッチジェスチャのうちの少なくとも1つを含む、請求項39に記載の方法。
  47. 前記光パターンは、色、弧長、または視覚的効果を有する弧状領域を含む、請求項39に記載の方法。
  48. 発光ユーザ入力デバイスを較正するためのシステムであって、前記システムは、
    環境を結像するように構成される外向きに面した結像システムと、
    光パターンを照明するように構成される発光ユーザ入力デバイスと、
    前記外向きに面した結像システムおよび前記発光ユーザ入力デバイスと通信するハードウェアプロセッサであって、
    第1の姿勢から第2の姿勢への前記発光ユーザ入力デバイスの移動と関連付けられた前記発光ユーザ入力デバイスのセンサによって入手された第1の移動データにアクセスすることと、
    前記発光ユーザ入力デバイスの第1の画像を決定することであって、前記第1の画像は、前記発光ユーザ入力デバイスの前記第1の姿勢に対応する光パターンを含む、ことと、
    前記外向きに面した結像システムによって入手された前記発光ユーザ入力デバイスの第2の画像を決定することであって、前記第2の画像は、前記発光ユーザ入力デバイスの前記第2の姿勢に対応する光パターンを含む、ことと、
    前記第2の画像を分析し、前記発光ユーザ入力デバイスの移動と関連付けられた第2の移動データを計算することと、
    前記第1の移動データと前記第2の移動データとの間の相違を検出することと、
    前記相違が閾値条件に達することの決定に応答して、前記発光ユーザ入力デバイスのセンサを較正させることと
    を行うようにプログラムされる、ハードウェアプロセッサと
    を備える、システム。
  49. 前記第1の姿勢から前記第2の姿勢への前記発光ユーザ入力デバイスの移動は、前記発光ユーザ入力デバイスの位置または配向のうちの少なくとも1つの変化を含む、請求項48に記載のシステム。
  50. 前記第1の姿勢または前記第2の姿勢は、前記発光ユーザ入力デバイスの基点位置に対応する、請求項48に記載のシステム。
  51. 前記光パターンは、前記発光ユーザ入力デバイスのタッチ可能部分を囲繞する複数の発光ダイオードによって照明される後光と関連付けられる、請求項48に記載のシステム。
  52. 前記第2の移動データを計算するために、前記ハードウェアプロセッサは、前記第1の画像および前記第2の画像内の後光の形状の変化を計算するようにプログラムされる、請求項48に記載のシステム。
  53. 前記発光ユーザ入力デバイスは、拡張現実デバイスとの相互作用のためのトーテムである、請求項48に記載のシステム。
  54. 前記センサは、前記トーテムの慣性測定ユニット(IMU)の一部であり、前記センサは、ユーザの移動に対する前記トーテムの応答性または前記ユーザの移動と前記IMUの測定との間のマッピングのうちの少なくとも1つを調節することによって較正される、請求項53に記載のシステム。
  55. 前記トーテムはさらに、視覚的インジケーションをユーザに提供し、前記発光ユーザ入力デバイスを前記第1の姿勢から前記第2の姿勢に移動させるように構成される、請求項53に記載のシステム。
  56. 前記トーテムは、3自由度を有する、請求項53に記載のシステム。
  57. 前記ハードウェアプロセッサは、コンピュータビジョンアルゴリズムを適用し、前記第1の画像および前記第2の画像を分析し、前記第1の画像および前記第2の画像内の光パターンを識別するようにプログラムされる、請求項48に記載のシステム。
  58. 前記発光ユーザ入力デバイスは、前記発光ユーザ入力デバイスの較正が完了されたことの決定に応答して、別の光パターンを照明することができる、請求項48に記載のシステム。
  59. 前記ハードウェアプロセッサは、前記較正のタイプを決定するようにプログラムされ、前記発光ユーザ入力デバイスによって照明される光パターンは、前記較正のタイプに対応する、請求項48に記載のシステム。
  60. 発光ユーザ入力デバイスを較正する方法であって、前記方法は、
    ハードウェアプロセッサの制御下で、
    ある姿勢における発光ユーザ入力デバイスの移動データを受信することであって、前記移動データは、前記発光ユーザ入力デバイスのセンサによって入手される、ことと、
    前記ある姿勢における前記発光ユーザ入力デバイスの画像を受信することと、
    前記画像を分析し、前記発光ユーザ入力デバイスによって照明される光パターンの形状を識別することと、
    前記移動データに基づいて、前記ある姿勢における前記発光ユーザ入力デバイスの第1の位置または第1の配向のうちの少なくとも1つを計算することと、
    前記光パターンの形状に基づいて、前記ある姿勢における前記発光ユーザ入力デバイスの第2の位置または第2の配向のうちの少なくとも1つを計算することと、
    前記第1の位置と前記第2の位置または前記第1の配向と前記第2の配向との間の相違を決定することと、
    前記相違が閾値条件に達することの決定に応答して、前記発光ユーザ入力デバイスのセンサを較正することと
    を含む、方法。
  61. 前記第1の位置、前記第1の配向、前記第2の位置、または前記第2の配向は、基点姿勢を参照して計算される、請求項60に記載の方法。
  62. 前記画像内の前記光パターンの形状は、卵形である一方、前記基点姿勢における前記光パターンの形状は、円形である、請求項60に記載の方法。
  63. 前記光パターンの位置または移動パターンのうちの少なくとも1つは、前記較正されているセンサのタイプに対応する、請求項60に記載の方法。
  64. 前記較正が成功したことの決定に応答して、視覚的、聴覚的、または触覚的フィードバックのうちの少なくとも1つを提供することをさらに含む、請求項60に記載の方法。
  65. 前記センサを較正することは、ユーザの移動に対する前記センサの応答性または前記ユーザの移動と前記センサの測定との間のマッピングのうちの少なくとも1つを調節することを含む、請求項60に記載の方法。
  66. 発光ユーザ入力デバイスを較正するためのシステムであって、前記システムは、
    環境を結像するように構成される外向きに面した結像システムと、
    前記外向きに面した結像システムと通信するハードウェアプロセッサであって、
    前記環境の画像を受信することと、
    前記画像を分析し、発光ユーザ入力デバイスを識別することと、
    前記発光ユーザ入力デバイスの第1の姿勢および照明される後光の光パターンの第1の外観を決定することと、
    少なくとも部分的に、前記画像の分析に基づいて、前記照明される後光の光パターンの第2の外観を識別することと、
    前記発光ユーザ入力デバイスの姿勢に対する第1の変化を決定することと、
    前記発光ユーザ入力デバイスによって測定された前記発光ユーザ入力デバイスの移動データを受信することと、
    少なくとも部分的に、前記画像の分析に基づいて、前記発光ユーザ入力デバイスの姿勢に対する第2の変化を計算することと、
    前記第1の変化と前記第2の変化との間の差異を計算し、前記差異が閾値に達するかどうかを決定することと、
    前記差異が前記閾値条件を超えたことの決定に応答して、前記発光ユーザ入力デバイスのセンサを較正することと
    を行うようにプログラムされる、ハードウェアプロセッサと
    を備える、システム。
  67. 前記発光ユーザ入力デバイスの姿勢は、前記発光ユーザ入力デバイスの位置および配向を含む、請求項66に記載のシステム。
  68. 前記発光ユーザ入力デバイスは、トーテム、スマートウォッチ、またはスマートフォンのうちの少なくとも1つを含み、前記センサは、IMUである、請求項66に記載のシステム。
  69. 前記差異が前記閾値を超えないことの決定に応答して、前記ハードウェアプロセッサは、前記センサが較正されていることのインジケーションを提供するようにプログラムされる、請求項66に記載のシステム。
  70. 前記インジケーションは、前記発光ユーザ入力デバイス上の視覚的、聴覚的、または触覚的フィードバックを含む、請求項69に記載のシステム。
  71. 前記第1の位置は、前記発光ユーザ入力デバイスの基点位置である、請求項66に記載のシステム。
  72. 前記発光ユーザ入力デバイスはさらに、前記ユーザ入力デバイスを前記第1の姿勢および前記第2の姿勢を含む姿勢に位置付けるように、前記発光ユーザ入力デバイスのユーザを誘導するための一連の光パターンを照明するように構成される、請求項66に記載のシステム。
  73. 少なくとも部分的に、前記画像の分析に基づいて、前記発光ユーザ入力デバイスの姿勢に対する第2の変化を計算するために、前記ハードウェアプロセッサは、前記第1の外観における前記光パターンの形状に対する前記第2の外観における前記光パターンの形状の変形を決定するようにプログラムされる、請求項66に記載のシステム。
  74. 前記発光ユーザ入力デバイスは、仮想コンテンツを拡張現実、仮想現実、または複合現実環境内に提示するためのウェアラブルディスプレイをさらに備えるウェアラブルシステムの一部である、請求項66に記載のシステム。
  75. 前記センサを較正するために、前記ハードウェアプロセッサは、ユーザの移動に対する前記センサの応答性または前記ユーザの移動と前記センサの測定との間のマッピングのうちの少なくとも1つを調節するようにプログラムされる、請求項66に記載のシステム。
  76. 発光ユーザ入力デバイスを較正するための方法であって、前記方法は、
    発光アセンブリと、ハードウェアプロセッサとを備える発光ユーザ入力デバイスの制御下で、
    前記発光ユーザ入力デバイスの第1の姿勢を決定することと、
    前記発光アセンブリに、前記発光ユーザ入力デバイスを第2の姿勢に移動させるようにユーザを誘導するための第1の光パターンを照明させることと、
    前記発光ユーザ入力デバイスが前記第2の姿勢に移動されたことの決定に応答して、
    前記発光ユーザ入力デバイスの姿勢データを入手することと、
    少なくとも部分的に、前記姿勢データに基づいて、前記発光ユーザ入力デバイスを較正することと、
    ユーザに、前記較正プロセスが完了されたことのインジケーションを提供することと
    を含む、方法。
  77. 前記第1の姿勢を決定することは、少なくとも部分的に、前記発光ユーザ入力デバイスの慣性測定ユニット(IMU)から入手されたデータに基づく、請求項76に記載の方法。
  78. 前記インジケーションは、聴覚的、視覚的、または触覚的インジケーションのうちの少なくとも1つを含む、請求項76に記載の方法。
  79. 前記インジケーションは、第2の光パターンを含む、請求項76に記載の方法。
  80. 前記姿勢データは、前記発光ユーザ入力デバイスの位置または配向データのうちの少なくとも1つを含む、請求項76に記載の方法。
  81. 前記発光ユーザ入力デバイスの姿勢データは、前記発光ユーザ入力デバイスが複数の姿勢にあるときに入手されたデータを含む、請求項76に記載の方法。
  82. 前記発光アセンブリに、較正プロセスの開始を示す第3の光パターンを照明させることをさらに含む、請求項76に記載の方法。
  83. 発光ユーザ入力デバイスを較正するためのシステムであって、前記システムは、
    前記発光ユーザ入力デバイスの移動データを入手するように構成される1つ以上のセンサと、
    複数の光パターンを出力するように構成される前記発光ユーザ入力デバイスの発光アセンブリと、
    ハードウェアプロセッサであって、
    前記発光ユーザ入力デバイスをある姿勢に位置付けるための第1のインジケーションをユーザに提供することと、
    前記ある姿勢への前記発光ユーザ入力デバイスの移動データを入手することと、
    少なくとも部分的に、前記移動データに基づいて、前記発光ユーザ入力デバイスを較正することと、
    ユーザに、前記較正プロセスが完了されたことのインジケーションを提供することと
    を行うようにプログラムされる、ハードウェアプロセッサと
    を備える、システム。
  84. 前記第1のインジケーションは、光パターンを含み、その場所、移動、または組み合わせは、ユーザに、前記発光ユーザ入力デバイスを前記ある姿勢に移動させるためのガイドを提供する、請求項83に記載のシステム。
  85. 前記発光ユーザ入力デバイスは、拡張または複合現実環境と相互作用するためのウェアラブルシステムの一部であり、前記第1のインジケーションは、ユーザによって位置付けられるべき前記トーテムの姿勢を示す前記ウェアラブルシステムの頭部搭載型ディスプレイによって提供される仮想画像を含む、請求項83に記載のシステム。
  86. 前記ハードウェアプロセッサはさらに、
    前記発光ユーザ入力デバイスが較正されていることの決定に応答して、前記発光ユーザ入力デバイスが較正されていることを知らせる第2のインジケーションを提供する、または
    前記発光ユーザ入力デバイスが較正されていないことの決定に応答して、前記発光ユーザ入力デバイスの較正を継続する
    ようにプログラムされる、請求項83に記載のシステム。
  87. 前記ハードウェアプロセッサはさらに、前記発光ユーザ入力デバイスのための較正プロセスを開始するための開始条件を検出するようにプログラムされる、請求項83に記載のシステム。
  88. 前記発光ユーザ入力デバイスを較正するために、前記ハードウェアプロセッサは、前記ある姿勢における前記発光ユーザ入力デバイスを含む画像にアクセスし、前記移動データおよび前記画像を分析し、前記移動データから計算されたものと前記画像から決定されたものとの間の前記発光ユーザ入力デバイスの位置または配向のうちの少なくとも1つの相違を識別するようにプログラムされる、請求項83に記載のシステム。
  89. 前記発光ユーザ入力デバイスは、タッチ表面を備えるトーテムを備え、前記発光アセンブリは、前記タッチ表面に隣接して位置付けられる、請求項83に記載のシステム。
  90. 発光ユーザ入力デバイスをペアリングするためのウェアラブルデバイスであって、前記ウェアラブルデバイスは、
    環境を結像するように構成される外向きに面した結像システムと、
    前記外向きに面した結像システムと通信するハードウェアプロセッサであって、
    前記外向きに面した結像システムによって入手された画像を受信することであって、前記画像は、発光ユーザ入力デバイスによって照明された光パターンを含む、ことと、
    前記ウェアラブルデバイスとペアリングされるべき発光ユーザ入力デバイスを識別することと、
    前記画像を分析し、前記発光ユーザ入力デバイスとウェアラブルデバイスのペアリングと関連付けられた情報をエンコードする前記光パターンを識別することと、
    前記発光ユーザ入力デバイスと前記ウェアラブルデバイスをペアリングするために、前記光パターン内にエンコードされた情報を抽出することと、
    少なくとも部分的に、前記抽出された情報に基づいて、前記発光ユーザ入力デバイスとウェアラブルデバイスをペアリングすることと
    を行うようにプログラムされる、ハードウェアプロセッサと
    を備える、ウェアラブルデバイス。
  91. 前記ハードウェアプロセッサはさらに、
    前記発光ユーザ入力デバイスと前記ウェアラブルデバイスとの間のペアリングが成功したかどうかを決定することと、
    前記ペアリングが成功したことの決定に応答して、前記発光ユーザ入力デバイスに、ペアリング成功を示す別の光パターンを照明するように命令することと
    を行うようにプログラムされる、請求項90に記載のウェアラブルデバイス。
  92. 前記ハードウェアプロセッサはさらに、前記ペアリングが成功したことの決定に応答して、無線接続を介して、前記発光ユーザ入力デバイスと通信するようにプログラムされる、請求項90に記載のウェアラブルデバイス。
  93. 前記無線接続は、Bluetooth(登録商標)接続を含む、請求項92に記載のウェアラブルデバイス。
  94. 前記光パターンによってエンコードされる情報は、前記発光ユーザ入力デバイスのデバイス情報を含む、請求項90に記載のウェアラブルデバイス。
  95. 前記光パターンは、前記情報を2進数形態でエンコードする、請求項90に記載のウェアラブルデバイス。
  96. 前記光パターンは、前記ペアリングと関連付けられた情報をエンコードする1つ以上の色を含む、請求項90に記載のウェアラブルデバイス。
  97. 前記光パターンの一部は、電磁スペクトルの非可視部分内の光を含む、請求項90に記載のウェアラブルデバイス。
  98. 前記ウェアラブルデバイスは、仮想コンテンツを複合現実環境内に提示するための頭部搭載型ディスプレイを備え、外向きに面した結像システムは、前記頭部搭載型ディスプレイに搭載されるカメラを備える、請求項90に記載のウェアラブルシステム。
  99. 発光ユーザ入力デバイスをペアリングするための方法であって、前記方法は、
    ハードウェアプロセッサの制御下で、
    ペアリングプロセスを発光ユーザ入力デバイスと電子デバイスとの間で開始することと、
    カメラによって入手された画像にアクセスすることであって、前記画像は、前記発光ユーザ入力デバイスによって照明された光パターンを含む、ことと、
    前記電子デバイスとペアリングされるべき前記発光ユーザ入力デバイスを識別することと、
    前記画像を分析し、前記発光ユーザ入力デバイスと前記電子デバイスのペアリングと関連付けられた情報をエンコードする前記光パターンを識別することと、
    前記発光ユーザ入力デバイスと前記電子デバイスをペアリングするために、前記光パターン内にエンコードされた情報を抽出することと、
    少なくとも部分的に、前記抽出された情報に基づいて、前記発光ユーザ入力デバイスと前記電子デバイスをペアリングすることと
    を含む、方法。
  100. 前記電子デバイスは、仮想コンテンツを複合現実環境内に提示するためのウェアラブルシステムのコンポーネントを含む、請求項99に記載の方法。
  101. 前記電子デバイスは、別のユーザ入力デバイスまたは頭部搭載型ディスプレイを含む、請求項100に記載の方法。
  102. 前記ペアリングプロセスが成功したことの決定に応答して、前記発光ユーザ入力デバイスと前記電子デバイスとの間の無線接続を確立することをさらに含む、請求項99に記載の方法。
  103. 前記光パターンによってエンコードされる情報は、前記発光ユーザ入力デバイスのデバイス情報を含み、前記デバイス情報は、デバイス識別子、前記発光ユーザ入力デバイスに関する識別情報、または前記発光ユーザ入力デバイスと前記電子デバイスをペアリングするためのキーのうちの少なくとも1つを含む、請求項99に記載の方法。
  104. 前記光パターンは、前記情報を2進数形態でエンコードする、請求項103に記載の方法。
  105. 前記光パターンは、前記ペアリングプロセスの情報をエンコードする1つ以上の色を含む、請求項99に記載の方法。
  106. 前記光パターンの一部は、電磁スペクトルの非可視部分内の光を含む、請求項99に記載の方法。
  107. 発光ユーザ入力デバイスをペアリングするためのシステムであって、前記システムは、
    光パターンを出力するように構成される複数の発光ダイオード(LED)と、
    ハードウェアプロセッサであって、
    電子デバイスとのペアリングプロセスを開始することと、
    前記複数のLEDの1つ以上のLEDに、前記ペアリングプロセスに関する情報をエンコードする第1の光パターンを照明させることと、
    前記電子デバイスが正常にペアリングされたことの決定に応答して、前記ペアリングが成功したことを示す第2の光パターンを照明することと
    を行うようにプログラムされる、ハードウェアプロセッサと
    を備える、システム。
  108. 前記第1の光パターンは、前記ユーザ入力デバイスと関連付けられたデバイス情報または他のコンピューティングデバイスにペアリングプロセスを開始させるトリガメッセージのうちの少なくとも1つをエンコードする、請求項107に記載のシステム。
  109. 前記ハードウェアプロセッサは、
    前記ペアリングプロセスの間、応答を前記電子デバイスから受信することと、
    前記複数のLEDの第2の1つ以上のLEDに、前記応答に対する返信における返信メッセージをエンコードする第3の光パターンを照明させることと
    を行うようにプログラムされる、請求項107に記載のシステム。
  110. 前記複数のLEDの1つ以上のLEDの照明は、前記ペアリングプロセスの情報を2進数形態でエンコードする、請求項107に記載のシステム。
  111. 前記1つ以上のLEDの照明と関連付けられた色は、前記ペアリングプロセスの情報をエンコードする、請求項107に記載のシステム。
  112. 前記第1の光パターンまたは前記第2の光パターンの一部は、電磁スペクトルの非可視部分内の光を含む、請求項107に記載のシステム。
  113. 方法であって、
    複数の光パターンを照明するための発光アセンブリを備える第1の電子デバイスのハードウェアプロセッサの制御下で、
    前記第1の電子デバイスと第2の電子デバイスとの間の通信を開始することと、
    前記第1の電子デバイスに、前記通信のためのメッセージをエンコードする光パターンを照明させることと、
    応答を前記第2の電子デバイスから受信することと、
    少なくとも部分的に、前記第2の電子デバイスからの応答に基づいて、インジケーションを前記第1の電子デバイスのユーザに提供させることと
    を含む、方法。
  114. 前記通信は、前記第1の電子デバイスと前記第2の電子デバイスとの間のペアリングプロセスを含む、請求項113に記載の方法。
  115. 前記第1の光パターンは、前記ユーザ入力デバイスと関連付けられたデバイス情報または他のコンピューティングデバイスにペアリングプロセスを開始させるトリガメッセージのうちの少なくとも1つをエンコードする、請求項114に記載の方法。
  116. 前記インジケーションは、前記第1の電子デバイスおよび前記第2の電子デバイスが正常にペアリングされたことの決定に応答して、前記第1の電子デバイスと前記第2の電子デバイスとの間のペアリングが完了されたことを示す前記第1の電子デバイスによって照明される第2の光パターンを含む、請求項114に記載の方法。
  117. 前記インジケーションは、前記応答に対する返信における返信メッセージをエンコードする前記第1の電子デバイスによって照明される第3の光パターンを含む、請求項113に記載の方法。
  118. 前記第1の光パターンは、情報を前記メッセージ内に2進数形態でエンコードする、請求項113に記載の方法。
  119. 前記光パターンは、前記通信のメッセージをさらにエンコードする1つ以上の色を含む、請求項113に記載の方法。
  120. 発光ユーザ入力デバイスであって、
    ユーザ入力を受信するように構成されるタッチパッドアセンブリであって、前記タッチパッドアセンブリは、
    タッチ表面と、
    前記タッチ表面に結合されるタッチセンサであって、前記タッチセンサの少なくとも一部は、前記タッチ表面の下にあり、前記タッチ表面の作動を検出するように構成される、タッチセンサと、
    光学拡散要素および複数の光照明要素を備える発光アセンブリであって、前記発光アセンブリは、前記タッチセンサおよび前記タッチ表面に結合され、複数の光パターンを表示するように構成される、発光アセンブリと、
    前記発光アセンブリおよび前記タッチセンサに結合される印刷回路基板と、
    を備える、タッチパッドアセンブリと、
    前記タッチパッドアセンブリを支持するための本体と
    を備える、発光ユーザ入力デバイス。
  121. 前記光学拡散要素の少なくとも一部は、前記タッチセンサ上にオーバーレイされ、前記タッチセンサはさらに、前記光学拡散要素の作動を検出するように構成される、請求項120に記載の発光ユーザ入力デバイス。
  122. 前記光学拡散要素は、光導波路を備える、請求項120に記載の発光ユーザ入力デバイス。
  123. 前記光学拡散要素は、前記タッチ表面を実質的に囲繞する、請求項120に記載の発光ユーザ入力デバイス。
  124. 前記タッチパッドアセンブリはさらに、前記発光アセンブリ、前記タッチ表面、および前記タッチセンサを保持するためのアーマチュアを備える、請求項120に記載の発光ユーザ入力デバイス。
  125. 前記複数の光照明要素は、発光ダイオードを備える、請求項120に記載の発光ユーザ入力デバイス。
  126. 複合現実コンテンツを提示するように構成されたウェアラブルデバイスとの無線接続を確立するように構成される接続インターフェースをさらに備える、請求項120に記載の発光ユーザ入力デバイス。
  127. 前記本体は、前記タッチパッドアセンブリを支持するための上側部分と、基部に除去可能に搭載されるように構成される底部部分とを有する、請求項120に記載の発光ユーザ入力デバイス。
  128. 前記本体はさらに、ユーザ相互作用のために、トリガ、バンパ、またはホームボタンのうちの少なくとも1つを含む、請求項120に記載の発光ユーザ入力デバイス。
  129. 前記複数の光照明要素の照明を制御するようにプログラムされるハードウェアプロセッサをさらに備える、請求項120に記載の発光ユーザ入力デバイス。
JP2019556946A 2017-04-27 2018-04-27 発光ユーザ入力デバイス Active JP7231556B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2023008031A JP7335462B2 (ja) 2017-04-27 2023-01-23 発光ユーザ入力デバイス
JP2023132794A JP7385078B1 (ja) 2017-04-27 2023-08-17 発光ユーザ入力デバイス
JP2023180164A JP2023179746A (ja) 2017-04-27 2023-10-19 発光ユーザ入力デバイス

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762490863P 2017-04-27 2017-04-27
US62/490,863 2017-04-27
PCT/US2018/029988 WO2018201067A1 (en) 2017-04-27 2018-04-27 Light-emitting user input device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023008031A Division JP7335462B2 (ja) 2017-04-27 2023-01-23 発光ユーザ入力デバイス

Publications (3)

Publication Number Publication Date
JP2020518902A true JP2020518902A (ja) 2020-06-25
JP2020518902A5 JP2020518902A5 (ja) 2021-05-27
JP7231556B2 JP7231556B2 (ja) 2023-03-01

Family

ID=63916641

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2019556946A Active JP7231556B2 (ja) 2017-04-27 2018-04-27 発光ユーザ入力デバイス
JP2023008031A Active JP7335462B2 (ja) 2017-04-27 2023-01-23 発光ユーザ入力デバイス
JP2023132794A Active JP7385078B1 (ja) 2017-04-27 2023-08-17 発光ユーザ入力デバイス
JP2023180164A Pending JP2023179746A (ja) 2017-04-27 2023-10-19 発光ユーザ入力デバイス

Family Applications After (3)

Application Number Title Priority Date Filing Date
JP2023008031A Active JP7335462B2 (ja) 2017-04-27 2023-01-23 発光ユーザ入力デバイス
JP2023132794A Active JP7385078B1 (ja) 2017-04-27 2023-08-17 発光ユーザ入力デバイス
JP2023180164A Pending JP2023179746A (ja) 2017-04-27 2023-10-19 発光ユーザ入力デバイス

Country Status (9)

Country Link
US (5) US11163416B2 (ja)
EP (3) EP3616040B1 (ja)
JP (4) JP7231556B2 (ja)
KR (1) KR102472428B1 (ja)
CN (2) CN110832439B (ja)
AU (1) AU2018258679B2 (ja)
CA (1) CA3059209A1 (ja)
IL (2) IL270146B2 (ja)
WO (1) WO2018201067A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022149989A (ja) * 2021-03-25 2022-10-07 株式会社ソニー・インタラクティブエンタテインメント 入力デバイス

Families Citing this family (75)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD831652S1 (en) * 2015-08-20 2018-10-23 Brunswick Corporation Animated responsive display on a joystick
WO2017093996A1 (en) * 2015-12-02 2017-06-08 Hisep Technology Ltd. Directionally awareness of wireless sensor nodes
CN117198277A (zh) 2016-08-12 2023-12-08 奇跃公司 单词流注释
US10496216B2 (en) 2016-11-09 2019-12-03 Dell Products L.P. Information handling system capacitive touch totem with optical communication support
US11163416B2 (en) 2017-04-27 2021-11-02 Magic Leap, Inc. Light-emitting user input device for calibration or pairing
US10621751B2 (en) * 2017-06-16 2020-04-14 Seiko Epson Corporation Information processing device and computer program
US10365710B2 (en) * 2017-06-23 2019-07-30 Seiko Epson Corporation Head-mounted display device configured to display a visual element at a location derived from sensor data and perform calibration
US10782793B2 (en) * 2017-08-10 2020-09-22 Google Llc Context-sensitive hand interaction
US10976811B2 (en) * 2017-08-11 2021-04-13 Microsoft Technology Licensing, Llc Eye-tracking with MEMS scanning and reflected light
US10970425B2 (en) 2017-12-26 2021-04-06 Seiko Epson Corporation Object detection and tracking
US10459528B2 (en) 2018-02-28 2019-10-29 Dell Products L.P. Information handling system enhanced gesture management, control and detection
EP4212222A1 (en) 2018-03-07 2023-07-19 Magic Leap, Inc. Visual tracking of peripheral devices
US11042226B2 (en) * 2018-04-02 2021-06-22 Microsoft Technology Licensing, Llc Constellation-based augmentation of mouse form-factor for virtual reality applications
US10318811B1 (en) * 2018-04-22 2019-06-11 Bubbler International Llc Methods and systems for detecting objects by non-visible radio frequencies and displaying associated augmented reality effects
US10866634B2 (en) 2018-06-19 2020-12-15 Sony Interactive Entertainment Inc. Eye tracking system with holographic film decoder
US10795502B2 (en) 2018-06-28 2020-10-06 Dell Products L.P. Information handling system touch device with adaptive haptic response
US10852853B2 (en) 2018-06-28 2020-12-01 Dell Products L.P. Information handling system touch device with visually interactive region
US10817077B2 (en) 2018-06-28 2020-10-27 Dell Products, L.P. Information handling system touch device context aware input tracking
US10664101B2 (en) 2018-06-28 2020-05-26 Dell Products L.P. Information handling system touch device false touch detection and mitigation
US10761618B2 (en) * 2018-06-28 2020-09-01 Dell Products L.P. Information handling system touch device with automatically orienting visual display
US10635199B2 (en) 2018-06-28 2020-04-28 Dell Products L.P. Information handling system dynamic friction touch device for touchscreen interactions
USD918176S1 (en) 2018-07-24 2021-05-04 Magic Leap, Inc. Totem controller having an illumination region
USD930614S1 (en) 2018-07-24 2021-09-14 Magic Leap, Inc. Totem controller having an illumination region
USD924204S1 (en) 2018-07-24 2021-07-06 Magic Leap, Inc. Totem controller having an illumination region
WO2020028826A1 (en) 2018-08-02 2020-02-06 Firefly Dimension, Inc. System and method for human interaction with virtual objects
US11287526B2 (en) * 2018-11-21 2022-03-29 Microsoft Technology Licensing, Llc Locating spatialized sounds nodes for echolocation using unsupervised machine learning
WO2020116529A1 (ja) * 2018-12-07 2020-06-11 株式会社ソニー・インタラクティブエンタテインメント 発光制御装置、操作デバイス、発光制御方法及びプログラム
CN113164813A (zh) * 2018-12-07 2021-07-23 索尼互动娱乐股份有限公司 输入设备
US11107390B2 (en) * 2018-12-21 2021-08-31 Johnson Controls Technology Company Display device with halo
CN112809709B (zh) * 2019-01-25 2022-12-02 北京妙趣伙伴科技有限公司 机器人及其操作系统、控制装置、控制方法及存储介质
TWI725574B (zh) * 2019-02-22 2021-04-21 宏達國際電子股份有限公司 頭戴式顯示裝置以及眼球追蹤游標的顯示方法
US10838486B2 (en) * 2019-02-28 2020-11-17 Microsoft Technology Licensing, Llc Virtual reality controller
USD914722S1 (en) * 2019-04-25 2021-03-30 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
US11210932B2 (en) * 2019-05-21 2021-12-28 Apple Inc. Discovery of and connection to remote devices
US11086398B2 (en) * 2019-06-07 2021-08-10 Microsoft Technology Licensing, Llc Haptic rendering
GB2584721B (en) * 2019-06-13 2023-05-10 Yoto Ltd An interactive apparatus
KR102570009B1 (ko) * 2019-07-31 2023-08-23 삼성전자주식회사 Ar 객체 생성 방법 및 전자 장치
US10931002B1 (en) 2019-09-23 2021-02-23 Disney Enterprises, Inc. Light transmitting wearable device with transparent and translucent components
US11861802B2 (en) 2019-11-11 2024-01-02 Spin Master Ltd. Augmented reality system
WO2021108327A1 (en) * 2019-11-26 2021-06-03 Magic Leap, Inc. Enhanced eye tracking for augmented or virtual reality display systems
JP2021086586A (ja) * 2019-11-29 2021-06-03 キヤノン株式会社 表示制御装置及びその制御方法
US11687778B2 (en) 2020-01-06 2023-06-27 The Research Foundation For The State University Of New York Fakecatcher: detection of synthetic portrait videos using biological signals
WO2021171915A1 (ja) * 2020-02-28 2021-09-02 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ スマート窓装置、映像表示方法及びプログラム
CN113384870B (zh) * 2020-03-13 2023-11-03 致伸科技股份有限公司 摇杆模块
WO2022170223A1 (en) * 2021-02-08 2022-08-11 Multinarity Ltd User interactions in extended reality
US11573644B2 (en) * 2020-04-21 2023-02-07 Hyundai Mobis Co., Ltd. Apparatus and method for recognizing gesture
US11582409B2 (en) * 2020-06-29 2023-02-14 Snap Inc. Visual-inertial tracking using rolling shutter cameras
USD938988S1 (en) * 2020-06-30 2021-12-21 Spotify Ab Display screen with graphical user interface
CN111783660B (zh) * 2020-07-01 2023-11-10 业成科技(成都)有限公司 眼动追踪装置及应用其的电子装置
JP7545564B2 (ja) 2020-07-15 2024-09-04 マジック リープ, インコーポレイテッド 非球面角膜モデルを使用した眼追跡
EP4181993A4 (en) 2020-07-16 2024-08-07 Ventec Life Systems Inc SYSTEM AND METHOD FOR CONCENTRATION OF GAS
US11931689B2 (en) 2020-07-16 2024-03-19 Ventec Life Systems, Inc. System and method for concentrating gas
US11320896B2 (en) * 2020-08-03 2022-05-03 Facebook Technologies, Llc. Systems and methods for object tracking using fused data
US11520152B1 (en) * 2020-08-06 2022-12-06 Apple Inc. Head-mounted display systems with gaze tracker alignment monitoring
US11467403B2 (en) * 2020-08-20 2022-10-11 Htc Corporation Operating method and electronic system
WO2022086002A1 (en) * 2020-10-20 2022-04-28 Samsung Electronics Co., Ltd. Waveguide structure with segmented diffractive optical elements and near-eye display apparatus employing the same
WO2022093219A1 (en) * 2020-10-28 2022-05-05 Hewlett-Packard Development Company, L.P. Virtual reality headset with physical object representation
US11461991B2 (en) * 2020-12-30 2022-10-04 Imagine Technologies, Inc. Method of developing a database of controllable objects in an environment
EP4288950A1 (en) 2021-02-08 2023-12-13 Sightful Computers Ltd User interactions in extended reality
JP2024507749A (ja) 2021-02-08 2024-02-21 サイトフル コンピューターズ リミテッド エクステンデッドリアリティにおけるコンテンツ共有
JP2024506630A (ja) 2021-02-08 2024-02-14 サイトフル コンピューターズ リミテッド 生産性のためのエクステンデッド・リアリティ
EP4059582A1 (en) * 2021-03-16 2022-09-21 UDU ApS Mobile handheld gaming controller
US11838991B2 (en) * 2021-05-26 2023-12-05 Microsoft Technology Licensing, Llc Peer-to-peer communication via smart wearables
WO2023009580A2 (en) 2021-07-28 2023-02-02 Multinarity Ltd Using an extended reality appliance for productivity
US20230062244A1 (en) * 2021-09-01 2023-03-02 Qualcomm Incorporated Extended reality control of smart devices
CN114019031B (zh) * 2021-09-13 2023-10-13 上海工程技术大学 力触觉系统主端操作机构及力触觉核电装备运维装置
JP2023042612A (ja) * 2021-09-15 2023-03-28 オムロン株式会社 遊技機用操作ボタンおよびこれを備えた遊技機用操作デッキ
WO2023064342A1 (en) * 2021-10-12 2023-04-20 Tandem Diabetes Care, Inc. Systems and method of pairing an infusion pump with a remote control device
US11948263B1 (en) 2023-03-14 2024-04-02 Sightful Computers Ltd Recording the complete physical and extended reality environments of a user
US20230334795A1 (en) 2022-01-25 2023-10-19 Multinarity Ltd Dual mode presentation of user interface elements
US12026325B2 (en) 2022-08-17 2024-07-02 Apple Inc. Handheld input devices with sleeves
US12079442B2 (en) 2022-09-30 2024-09-03 Sightful Computers Ltd Presenting extended reality content in different physical environments
WO2024112911A1 (en) * 2022-11-23 2024-05-30 Meta Platforms Technologies, Llc Arrangements of illumination sources within and outside of a digit-occluded region of a top cover of a handheld controller to assist with positional tracking of the controller by an artificial-reality system, and systems and methods of use thereof
US20240233207A1 (en) * 2023-01-05 2024-07-11 Dell Products L.P. Aggregated color palette generation based on user context and machine learning
CN117440554B (zh) * 2023-12-20 2024-04-02 深圳市正远科技有限公司 基于数字化实现led光源的场景建模方法及系统

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008521136A (ja) * 2004-11-17 2008-06-19 アトルア テクノロジーズ インコーポレイテッド 入力システム及び電子システム構成方法
JP2008541222A (ja) * 2005-06-02 2008-11-20 サムスン エレクトロニクス カンパニー リミテッド ユーザ命令を3次元的に入力可能な電子装置
JP2010015535A (ja) * 2008-06-02 2010-01-21 Sony Corp 入力装置、制御システム、ハンドヘルド装置及び校正方法
JP2011024613A (ja) * 2009-07-21 2011-02-10 Sony Computer Entertainment Inc ゲーム装置
JP2013515999A (ja) * 2009-12-24 2013-05-09 株式会社ソニー・コンピュータエンタテインメント 無線デバイスのペアリング及びグルーピング方法
JP2015072582A (ja) * 2013-10-02 2015-04-16 三星電子株式会社Samsung Electronics Co.,Ltd. ポインティング装置、ポインティング方法、及び、ポインティング装置用プログラム
US20160062489A1 (en) * 2014-09-01 2016-03-03 Yinbo Li Multi-surface controller
WO2017048519A1 (en) * 2015-09-16 2017-03-23 Google Inc. Touchscreen hover detection in an augmented and/or virtual reality environment
JP2017511082A (ja) * 2014-01-31 2017-04-13 ユースクエア ソフト インコーポレーテッド 移植可能なプロセッシングとアプリケーション実行の装置および方法

Family Cites Families (99)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6222525B1 (en) 1992-03-05 2001-04-24 Brad A. Armstrong Image controllers with sheet connected sensors
US5704151A (en) * 1995-03-24 1998-01-06 James Paul West Portable battery-powered safety lock
US5670988A (en) 1995-09-05 1997-09-23 Interlink Electronics, Inc. Trigger operated electronic device
USD432131S (en) 1999-12-17 2000-10-17 Microsoft Corporation Track ball and glow ring for a computer input device
WO2001056007A1 (en) * 2000-01-28 2001-08-02 Intersense, Inc. Self-referenced tracking
JP4292927B2 (ja) 2003-09-16 2009-07-08 カシオ計算機株式会社 ペン型データ入力装置及び該プログラム
USD514570S1 (en) 2004-06-24 2006-02-07 Microsoft Corporation Region of a fingerprint scanning device with an illuminated ring
US20060181521A1 (en) * 2005-02-14 2006-08-17 Atrua Technologies, Inc. Systems for dynamically illuminating touch sensors
US7548230B2 (en) * 2005-05-27 2009-06-16 Sony Computer Entertainment Inc. Remote input device
KR100538572B1 (ko) * 2005-06-14 2005-12-23 (주)멜파스 시각적 입력 피드백을 포함하는 사용자 접촉 기반의 디지털기기 제어 장치 및 방법
USD567243S1 (en) 2005-08-17 2008-04-22 Nintendo Co., Ltd. Controller for electronic game machine
US20070081123A1 (en) 2005-10-07 2007-04-12 Lewis Scott W Digital eyewear
US8696113B2 (en) 2005-10-07 2014-04-15 Percept Technologies Inc. Enhanced optical and perceptual digital eyewear
US11428937B2 (en) 2005-10-07 2022-08-30 Percept Technologies Enhanced optical and perceptual digital eyewear
USD565668S1 (en) 2005-12-15 2008-04-01 Microsoft Corporation Portion of a gaming input device having an illuminated region
USD563480S1 (en) 2005-12-15 2008-03-04 Microsoft Corporation Portion of a gaming input device having an illuminated region
USD567287S1 (en) 2006-03-28 2008-04-22 Anand International Pen
DE102006037545B4 (de) * 2006-08-10 2015-05-28 Ferton Holding S.A. Bedienelement und Verfahren zur Eingabe von Werten an einem medizinischen Gerät
GB0711355D0 (en) 2007-06-12 2007-07-25 Saitek P L C Video game controller
US20090002218A1 (en) 2007-06-28 2009-01-01 Matsushita Electric Industrial Co., Ltd. Direction and holding-style invariant, symmetric design, touch and button based remote user interaction device
USD589515S1 (en) 2007-10-17 2009-03-31 Zeenote, Inc. Wireless handheld controller
USD611477S1 (en) 2007-10-17 2010-03-09 Zeemote, Inc. Wireless handheld controller
JP4626671B2 (ja) 2008-04-24 2011-02-09 ソニー株式会社 入力装置及び制御システム
TWI360068B (en) 2008-05-30 2012-03-11 Asustek Comp Inc Pointing device and method for determining rotatio
US20100019468A1 (en) * 2008-06-21 2010-01-28 Price L Jay Apparatus, system and method for accessing the engine compartment of a vehicle
USD587713S1 (en) 2008-07-11 2009-03-03 Sutton Sales Llc Controller for electronic game machine
USD594066S1 (en) 2008-07-25 2009-06-09 Sony Computer Entertainment Inc. Hand held game controller
US8138938B2 (en) 2008-10-28 2012-03-20 The Boeing Company Hand-held positioning interface for spatial query
US8982063B2 (en) * 2010-02-25 2015-03-17 Blackberry Limited Optical naviagation module having a metallic illumination ring
USD638841S1 (en) 2010-09-18 2011-05-31 Ailive Inc. Game controller
US9304319B2 (en) 2010-11-18 2016-04-05 Microsoft Technology Licensing, Llc Automatic focus improvement for augmented reality displays
US10156722B2 (en) 2010-12-24 2018-12-18 Magic Leap, Inc. Methods and systems for displaying stereoscopy with a freeform optical system with addressable focus for virtual and augmented reality
CA2822978C (en) 2010-12-24 2019-02-19 Hong Hua An ergonomic head mounted display device and optical system
JP6316186B2 (ja) 2011-05-06 2018-04-25 マジック リープ, インコーポレイテッドMagic Leap,Inc. 広範囲同時遠隔ディジタル提示世界
USD665461S1 (en) 2011-06-07 2012-08-14 Microsoft Corporation Game controller
USD658184S1 (en) 2011-06-13 2012-04-24 Hon Hai Precision Industry Co., Ltd. Controlling handle
US8179604B1 (en) 2011-07-13 2012-05-15 Google Inc. Wearable marker for passive interaction
US10795448B2 (en) 2011-09-29 2020-10-06 Magic Leap, Inc. Tactile glove for human-computer interaction
US20130104085A1 (en) 2011-10-21 2013-04-25 Digital Artforms, Inc. Systems and methods for human-computer interaction using a two handed interface
RU2017115669A (ru) 2011-10-28 2019-01-28 Мэджик Лип, Инк. Система и способ для дополненной и виртуальной реальности
KR102116697B1 (ko) 2011-11-23 2020-05-29 매직 립, 인코포레이티드 3차원 가상 및 증강 현실 디스플레이 시스템
KR102028732B1 (ko) 2012-04-05 2019-10-04 매직 립, 인코포레이티드 능동 포비에이션 능력을 갖는 와이드-fov(field of view) 이미지 디바이스들
USD698358S1 (en) 2012-05-03 2014-01-28 Apem, Inc. Handheld controller
US9671566B2 (en) 2012-06-11 2017-06-06 Magic Leap, Inc. Planar waveguide apparatus with diffraction element(s) and system employing same
US9310559B2 (en) 2012-06-11 2016-04-12 Magic Leap, Inc. Multiple depth plane three-dimensional display using a wave guide reflector array projector
USD675644S1 (en) 2012-07-17 2013-02-05 Nike, Inc. Display screen with animated user interface
AU2013315607A1 (en) 2012-09-11 2015-04-02 Magic Leap, Inc Ergonomic head mounted display device and optical system
US10444845B2 (en) * 2012-12-21 2019-10-15 Qualcomm Incorporated Display of separate computer vision based pose and inertial sensor based pose
IL293789B2 (en) 2013-01-15 2023-08-01 Magic Leap Inc A system for scanning electromagnetic imaging radiation
CN105188516B (zh) 2013-03-11 2017-12-22 奇跃公司 用于增强和虚拟现实的系统与方法
KR102458124B1 (ko) 2013-03-15 2022-10-21 매직 립, 인코포레이티드 디스플레이 시스템 및 방법
USD725040S1 (en) 2013-03-15 2015-03-24 Microsoft Corporation Connector
EP2797313A1 (en) * 2013-04-26 2014-10-29 Elvesjö, John Computer graphics presentation system and method
US9874749B2 (en) 2013-11-27 2018-01-23 Magic Leap, Inc. Virtual and augmented reality systems and methods
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
EP3054693B1 (en) * 2013-10-02 2019-12-25 Samsung Electronics Co., Ltd Image display apparatus and pointing method for same
IL302408B2 (en) 2013-10-16 2024-09-01 Magic Leap Inc An augmented or virtual reality head device with intrapupillary distance adjustment
USD749044S1 (en) 2013-10-17 2016-02-09 Microsoft Mobile Oy Charger
US9111076B2 (en) * 2013-11-20 2015-08-18 Lg Electronics Inc. Mobile terminal and control method thereof
CN110542938B (zh) 2013-11-27 2023-04-18 奇跃公司 虚拟和增强现实系统与方法
US9857591B2 (en) 2014-05-30 2018-01-02 Magic Leap, Inc. Methods and system for creating focal planes in virtual and augmented reality
USD740369S1 (en) 2013-12-26 2015-10-06 Lg Electronics Inc. Controller for electronic learning device
US9524580B2 (en) 2014-01-06 2016-12-20 Oculus Vr, Llc Calibration of virtual reality systems
CN106461955B (zh) 2014-01-31 2019-08-13 奇跃公司 显示增强现实的方法
NZ722903A (en) 2014-01-31 2020-05-29 Magic Leap Inc Multi-focal display system and method
US10203762B2 (en) * 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
CN110308561A (zh) 2014-03-14 2019-10-08 索尼互动娱乐股份有限公司 用于头戴式显示器(hmd)的方法和系统
US9495801B2 (en) * 2014-05-01 2016-11-15 Microsoft Technology Licensing, Llc Pose tracking an augmented reality device
WO2016018488A2 (en) 2014-05-09 2016-02-04 Eyefluence, Inc. Systems and methods for discerning eye signals and continuous biometric identification
USD759657S1 (en) 2014-05-19 2016-06-21 Microsoft Corporation Connector with illumination region
CN113253476B (zh) 2014-05-30 2022-12-27 奇跃公司 采用虚拟或增强现实装置生成虚拟内容显示的方法和系统
USD752529S1 (en) 2014-06-09 2016-03-29 Comcast Cable Communications, Llc Electronic housing with illuminated region
USD755761S1 (en) 2014-08-13 2016-05-10 Comcast Cable Communications, Llc Electronic housing with illuminated region
USD769876S1 (en) 2014-08-29 2016-10-25 Apple Inc. Component for electronic device
US10534447B2 (en) 2014-09-01 2020-01-14 Yinbo Li Multi-surface controller
WO2016036711A1 (en) * 2014-09-01 2016-03-10 Cleverpet Llc Animal interaction device, system, and method
KR102243656B1 (ko) * 2014-09-26 2021-04-23 엘지전자 주식회사 모바일 디바이스, hmd 및 시스템
US10265043B2 (en) * 2014-10-14 2019-04-23 M3Dicine Ip Pty Ltd Systems, devices, and methods for capturing and outputting data regarding a bodily characteristic
USD753095S1 (en) 2014-12-11 2016-04-05 Comcast Cable Communications, Llc Remote and base with illuminated region
WO2016104922A1 (ko) 2014-12-24 2016-06-30 전자부품연구원 웨어러블 전자기기
JP2016162368A (ja) 2015-03-04 2016-09-05 ソニー株式会社 制御装置、制御方法、およびプログラム
WO2016141373A1 (en) 2015-03-05 2016-09-09 Magic Leap, Inc. Systems and methods for augmented reality
US10412173B2 (en) * 2015-04-22 2019-09-10 Panasonic Avionics Corporation Passenger seat pairing system
USD758367S1 (en) 2015-05-14 2016-06-07 Magic Leap, Inc. Virtual reality headset
USD763359S1 (en) 2015-05-29 2016-08-09 Vtech Electronics, Ltd. Game controller
CN105117016A (zh) * 2015-09-07 2015-12-02 众景视界(北京)科技有限公司 用于虚拟现实和增强现实交互控制中的交互手柄
CN105975082B (zh) * 2016-05-27 2019-01-15 北京小鸟看看科技有限公司 一种应用于虚拟现实头戴设备的手柄控制器
US10146334B2 (en) 2016-06-09 2018-12-04 Microsoft Technology Licensing, Llc Passive optical and inertial tracking in slim form-factor
USD797743S1 (en) 2016-08-22 2017-09-19 Magic Leap, Inc. Totem controller
IL307594A (en) 2016-08-22 2023-12-01 Magic Leap Inc Virtual, augmented and mixed reality systems and methods
US10764053B2 (en) * 2016-09-26 2020-09-01 Snap Inc. Systems and methods for device pairing with optical codes
US10444987B2 (en) 2016-12-19 2019-10-15 Microsoft Technology Licensing, Llc Facilitating selection of holographic keyboard keys
US11163416B2 (en) 2017-04-27 2021-11-02 Magic Leap, Inc. Light-emitting user input device for calibration or pairing
USD844608S1 (en) 2017-04-28 2019-04-02 Facebook Technologies, Llc Electronic input device
USD828337S1 (en) 2017-06-20 2018-09-11 Yinbo Li Multi-surface controller
USD924204S1 (en) 2018-07-24 2021-07-06 Magic Leap, Inc. Totem controller having an illumination region
USD918176S1 (en) 2018-07-24 2021-05-04 Magic Leap, Inc. Totem controller having an illumination region
USD930614S1 (en) 2018-07-24 2021-09-14 Magic Leap, Inc. Totem controller having an illumination region
USD884700S1 (en) 2018-08-30 2020-05-19 Shenzhen Grandsun Electronic Co., Ltd. Remote controller

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008521136A (ja) * 2004-11-17 2008-06-19 アトルア テクノロジーズ インコーポレイテッド 入力システム及び電子システム構成方法
JP2008541222A (ja) * 2005-06-02 2008-11-20 サムスン エレクトロニクス カンパニー リミテッド ユーザ命令を3次元的に入力可能な電子装置
JP2010015535A (ja) * 2008-06-02 2010-01-21 Sony Corp 入力装置、制御システム、ハンドヘルド装置及び校正方法
JP2011024613A (ja) * 2009-07-21 2011-02-10 Sony Computer Entertainment Inc ゲーム装置
JP2013515999A (ja) * 2009-12-24 2013-05-09 株式会社ソニー・コンピュータエンタテインメント 無線デバイスのペアリング及びグルーピング方法
JP2015072582A (ja) * 2013-10-02 2015-04-16 三星電子株式会社Samsung Electronics Co.,Ltd. ポインティング装置、ポインティング方法、及び、ポインティング装置用プログラム
JP2017511082A (ja) * 2014-01-31 2017-04-13 ユースクエア ソフト インコーポレーテッド 移植可能なプロセッシングとアプリケーション実行の装置および方法
US20160062489A1 (en) * 2014-09-01 2016-03-03 Yinbo Li Multi-surface controller
WO2017048519A1 (en) * 2015-09-16 2017-03-23 Google Inc. Touchscreen hover detection in an augmented and/or virtual reality environment

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022149989A (ja) * 2021-03-25 2022-10-07 株式会社ソニー・インタラクティブエンタテインメント 入力デバイス
JP7311550B2 (ja) 2021-03-25 2023-07-19 株式会社ソニー・インタラクティブエンタテインメント 入力デバイス

Also Published As

Publication number Publication date
IL270146B1 (en) 2024-03-01
US20180314406A1 (en) 2018-11-01
CN110832439A (zh) 2020-02-21
EP3616040B1 (en) 2022-09-28
EP4141623A1 (en) 2023-03-01
IL310727A (en) 2024-04-01
CN117311494A (zh) 2023-12-29
US12067209B2 (en) 2024-08-20
US11112932B2 (en) 2021-09-07
JP7231556B2 (ja) 2023-03-01
US11573677B2 (en) 2023-02-07
KR20200003391A (ko) 2020-01-09
EP3616040A4 (en) 2020-12-23
JP7335462B2 (ja) 2023-08-29
EP3616040A1 (en) 2020-03-04
US20240201823A1 (en) 2024-06-20
JP2023169895A (ja) 2023-11-30
WO2018201067A1 (en) 2018-11-01
JP7385078B1 (ja) 2023-11-21
IL270146B2 (en) 2024-07-01
US11163416B2 (en) 2021-11-02
US20230221831A1 (en) 2023-07-13
AU2018258679A1 (en) 2019-11-07
CA3059209A1 (en) 2018-11-01
JP2023052570A (ja) 2023-04-11
IL270146A (en) 2019-12-31
EP4414951A2 (en) 2024-08-14
KR102472428B1 (ko) 2022-11-30
EP4141623B1 (en) 2024-05-29
US20180314416A1 (en) 2018-11-01
AU2018258679B2 (en) 2022-03-31
JP2023179746A (ja) 2023-12-19
CN110832439B (zh) 2023-09-29
US20220019333A1 (en) 2022-01-20

Similar Documents

Publication Publication Date Title
JP7335462B2 (ja) 発光ユーザ入力デバイス
JP7411133B2 (ja) 仮想現実ディスプレイシステム、拡張現実ディスプレイシステム、および複合現実ディスプレイシステムのためのキーボード
JP7186913B2 (ja) 姿勢および複数のdofコントローラを用いた3d仮想オブジェクトとの相互作用
JP7546659B2 (ja) 三次元環境と相互作用するためのデバイス、方法、及びグラフィカルユーザインタフェース
KR102413561B1 (ko) 혼합 현실 환경의 가상 사용자 입력 콘트롤들
JP7118007B2 (ja) 視野周辺の視覚的背光

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210419

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210419

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230216

R150 Certificate of patent or registration of utility model

Ref document number: 7231556

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150