CN116649967A - 可穿戴光谱检查系统 - Google Patents

可穿戴光谱检查系统 Download PDF

Info

Publication number
CN116649967A
CN116649967A CN202310647311.6A CN202310647311A CN116649967A CN 116649967 A CN116649967 A CN 116649967A CN 202310647311 A CN202310647311 A CN 202310647311A CN 116649967 A CN116649967 A CN 116649967A
Authority
CN
China
Prior art keywords
light
user
electromagnetic radiation
wavelength
wavelengths
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310647311.6A
Other languages
English (en)
Inventor
N·E·萨梅茨
N·U·罗柏纳
A·克勒
M·拜伦洛特
E·拜伦洛特
C·M·哈利西斯
T·S·鲍尔斯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Magic Leap Inc
Original Assignee
Magic Leap Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Magic Leap Inc filed Critical Magic Leap Inc
Publication of CN116649967A publication Critical patent/CN116649967A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0075Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by spectroscopy, i.e. measuring spectra, e.g. Raman spectroscopy, infrared absorption spectroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/145Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
    • A61B5/1455Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • A61B5/1114Tracking parts of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1121Determining geometric values, e.g. centre of rotation or angular range of movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/145Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
    • A61B5/1455Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters
    • A61B5/14551Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters for measuring blood gases
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/145Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
    • A61B5/1455Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters
    • A61B5/14551Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters for measuring blood gases
    • A61B5/14552Details of sensors specially adapted therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/145Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
    • A61B5/1455Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters
    • A61B5/14551Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters for measuring blood gases
    • A61B5/14555Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters for measuring blood gases specially adapted for the eye fundus
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/6803Head-worn items, e.g. helmets, masks, headphones or goggles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/743Displaying an image simultaneously with additional graphical information, e.g. symbols, charts, function plots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/744Displaying an avatar, e.g. an animated cartoon character
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/0205Optical elements not provided otherwise, e.g. optical manifolds, diffusers, windows
    • G01J3/0248Optical elements not provided otherwise, e.g. optical manifolds, diffusers, windows using a sighting port, e.g. camera or human eye
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/0256Compact construction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/0264Electrical interface; User interface
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/10Arrangements of light sources specially adapted for spectrometry or colorimetry
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/10Arrangements of light sources specially adapted for spectrometry or colorimetry
    • G01J3/108Arrangements of light sources specially adapted for spectrometry or colorimetry for measurement in the infrared range
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/2823Imaging spectrometer
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/42Absorption spectrometry; Double beam spectrometry; Flicker spectrometry; Reflection spectrometry
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/42Absorption spectrometry; Double beam spectrometry; Flicker spectrometry; Reflection spectrometry
    • G01J3/427Dual wavelengths spectrometry
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/01Arrangements or apparatus for facilitating the optical investigation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/25Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands
    • G01N21/31Investigating relative effect of material at wavelengths characteristic of specific elements or molecules, e.g. atomic absorption spectrometry
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/25Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands
    • G01N21/31Investigating relative effect of material at wavelengths characteristic of specific elements or molecules, e.g. atomic absorption spectrometry
    • G01N21/35Investigating relative effect of material at wavelengths characteristic of specific elements or molecules, e.g. atomic absorption spectrometry using infrared light
    • G01N21/359Investigating relative effect of material at wavelengths characteristic of specific elements or molecules, e.g. atomic absorption spectrometry using infrared light using near infrared light
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/48Biological material, e.g. blood, urine; Haemocytometers
    • G01N33/483Physical analysis of biological material
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B6/00Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
    • G02B6/0001Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems
    • G02B6/0011Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems the light guides being planar or of plate-like form
    • G02B6/0075Arrangements of multiple light guides
    • G02B6/0076Stacked arrangements of multiple light guides of the same or different cross-sectional area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/13Digital output to plotter ; Cooperation and interconnection of the plotter with other functional units
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00216Electrical control of surgical instruments with eye tracking or head position tracking control
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/30Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
    • A61B2090/309Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure using white LEDs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/10Arrangements of light sources specially adapted for spectrometry or colorimetry
    • G01J2003/102Plural sources
    • G01J2003/106Plural sources the two sources being alternating or selectable, e.g. in two ranges or line:continuum
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/2823Imaging spectrometer
    • G01J2003/2826Multispectral imaging, e.g. filter imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/42Absorption spectrometry; Double beam spectrometry; Flicker spectrometry; Reflection spectrometry
    • G01J2003/425Reflectance
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0123Head-up displays characterised by optical features comprising devices increasing the field of view
    • G02B2027/0125Field-of-view increase by wavefront division
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements

Landscapes

  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Chemical & Material Sciences (AREA)
  • Biochemistry (AREA)
  • Analytical Chemistry (AREA)
  • Immunology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Physiology (AREA)
  • Geometry (AREA)
  • Medicinal Chemistry (AREA)
  • Hematology (AREA)
  • Urology & Nephrology (AREA)
  • Food Science & Technology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Ophthalmology & Optometry (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • User Interface Of Digital Computer (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Medicines Containing Antibodies Or Antigens For Use As Internal Diagnostic Agents (AREA)

Abstract

在一些实施例中,一种系统包括:头戴式框架,其可拆卸地耦合到用户的头部;一个或多个光源,其耦合到头戴式框架并且被配置为在光源的辐射视场中朝向目标对象发射至少两个不同波长的光;一个或多个电磁辐射检测器,其耦合到头戴式部件并且被配置为接收遇到目标对象之后反射的光;以及控制器,其可操作地耦合到一个或多个光源和检测器,并且被配置为确定和显示指示目标对象的身份或特性的输出,该身份或特性与由光源发射的光特性相关的由所述检测器测量的光特性确定。

Description

可穿戴光谱检查系统
本申请是申请日为2017年9月22日、PCT国际申请号为PCT/US2017/053067、中国国家阶段申请号为201780071647.5、发明名称为“可穿戴光谱检查系统”的申请的分案申请。
优先权声明
本申请要求2016年9月22日提交的美国临时申请No.62/398,454的优先权,其通过引用并入本文。
通过引用的并入
本申请通过引用并入有以下美国专利申请中的每一个的全部内容:美国专利申请No.15/072,341;美国专利申请No.14/690,401;美国专利申请No.14/555,858;美国专利申请No.14/555,585;美国专利申请No.13/663,466;美国专利申请No.13/684,489;美国专利申请No.14/205,126;美国专利申请No.14/641,376;美国专利申请No.14/212,961;美国临时专利申请No.62/298,993(美国专利申请No.15/425,837);以及美国专利申请No.15/425,837。
技术领域
本公开涉及用于使用可穿戴组件的增强现实的系统和方法,并且更具体地涉及用于通过反射光特性识别材料的增强现实系统的配置。
背景技术
现代计算和显示技术促进了用于所谓的“虚拟现实”或“增强现实”体验的系统的开发,其中数字再现图像或其部分以它们看起来或者可以被感知为真实的方式呈现给用户。虚拟现实或“VR”场景通常涉及呈现数字或虚拟图像信息而对其他实际的真实世界视觉输入不透明;以及增强现实或“AR”场景通常涉及呈现数字或虚拟图像信息,作为对用户周围的实际世界的可视化的增强,同时仍允许用户基本上感知和观看到真实世界。
参考图1,描绘了增强现实场景(4),其中AR技术的用户看到以人、树木、背景中的建筑物和混凝土平台(1120)为特征的真实世界公园状设置(6)。除了这些项目之外,AR技术的用户同样感知到他“看到”站在真实世界平台(1120)上的机器人雕像(1110)以及飞过的卡通式化身角色(2),该化身角色看起来是大黄蜂的化身,即使这些元素(2、1110)在真实世界中不存在。结果表明,人类的视觉感知系统是非常复杂的,并且产生有助于连同其他虚拟或真实世界的图像元素一起的虚拟图像元素的舒适、自然、丰富呈现是具有挑战性的。例如,头戴式AR显示器(或头盔式显示器或智能眼镜)通常至少松散地耦接到用户的头部,并由此在用户的头部移动时而移动。如果显示系统检测到用户的头部移动,则可以更新正在显示的数据以考虑头部姿态的变化。合适的AR系统的某些方面公开在例如名称为“Systemand method for augmented and virtual reality(用于增强和虚拟现实的系统和方法)”的序列号为No.14/205,126的美国专利申请中,其全部内容通过引用并入本文,以及被公开在以下附加公开内容中,其涉及诸如由弗罗里达州劳德代尔堡(Fort Lauderdale)的奇跃股份有限公司开发的增强和虚拟现实系统:序列号为14/641,376的美国专利申请;序列号为14/555,585的美国专利申请;序列号为14/212,961的美国专利申请;序列号为14/690,401的美国专利申请;序列号为13/663,466的美国专利申请;序列号为13/684,489的美国专利申请,以及序列号为62/298,993的美国专利申请,其中每一者在此通过引用整体并入本文。
本文公开的系统和方法解决了与AR和VR技术相关的各种挑战和开发。
发明内容
混合现实系统被配置为执行光谱检查(spectroscopy)。混合现实(或者缩写为“MR”)通常涉及集成到自然世界中并响应于自然世界的虚拟对象。例如,在MR场景中,AR内容被真实世界对象遮挡和/或被感知为与真实世界中的其他对象(虚拟或真实的)交互。贯穿本公开内容,对AR、VR或MR的引用不限制本发明,并且这些技术可以应用于任何背景。
一些实施例涉及一种用于根据从可拆卸地耦合到用户头部的头戴式部件发射并随后由该头戴式部件接收/反射/检测到的光波长来识别物质(例如组织、组织内的细胞或细胞/组织内的特性)的可穿戴系统。尽管本公开主要参考组织或组织特性作为根据各种实施例的分析的主题,但是科技和技术以及组件不限于此。一些实施例利用例如耦合到头戴式部件的电磁辐射发射器的一个或多个光源在用户选择的方向上发射一个或多个波长的光。这些实施例允许连续的甚至是被动的测量。例如,佩戴头戴式系统的用户可以进行给定的活动,但是面向内的传感器可以检测眼睛的特性而不会干扰活动。
例如,用户可以佩戴系统,该系统被配置为向内看用户的眼睛并识别或测量眼睛的组织特性,例如眼睛血管中的血液浓度。在向内系统的其他示例中,可以分析诸如眼内液的流体而不仅仅是组织特性。在其他示例中,系统可以包括传感器,该传感器朝向外部世界向外看并且识别或测量除了眼睛之外的例如用户的四肢(extremity)或周围环境中远离用户的对象的组织或材料特性。
在向外看的系统中,耦合到头戴式部件的眼睛跟踪相机可以确定用户正在看的定向凝视,处理器或控制器可以通过耦合到头戴式部件的真实世界捕获系统(例如相机或深度传感器)捕获的图像将该凝视与对真实世界目标对象的观察相关联。耦合到头戴式系统的光源发射远离用户的光,例如来自电磁辐射发射器的红外光,并且在一些实施例中,发射光以在与由眼睛跟踪相机确定的凝视方向基本相同的方向上创建辐射图案,从而发射在目标对象上。
在一些实施例中,真实世界捕获系统捕获对象。例如,诸如垂直腔表面发射激光器的深度传感器可以通过收集撞击对象的飞行时间信号来确定对象的轮廓。一旦对象被这种真实世界捕获系统在其外形处识别出来,该对象可以被突出显示并且可用于标记。在一些实施例中,给定视场的相机系统限定可用于突出显示和标记的区域。例如,与用户的凝视相关的相机可以包含5度视场、10度视场或合适的增量优选地高达30度的中心视觉视场,光源将基本上在该中心视觉视场内发射光。
在一些实施例中,这种系统还包括:一个或多个电磁辐射检测器或光电检测器,其耦合到头戴式部件并被配置为接收从光源发射并从目标对象反射的反射光;以及控制器,其可操作地耦合到一个或多个电磁辐射发射器和一个或多个电磁辐射检测器,并被配置为使一个或多个电磁辐射发射器发射光脉冲,同时还使一个或多个电磁辐射检测器检测与发射的光脉冲相关的光吸收水平,该光吸收水平取决于任何接收的特定脉冲发射的反射光。
在一些实施例中,该系统还包括处理器,以将检测器从目标对象接收的反射光的波长与下方组织的特定材料、组织类型或特性相匹配。在一些实施例中,确定其他光特征,例如相对于发射光和检测到的光的偏振变化或散射效应,但是出于本说明的目的,波长特征用作示例性光特征。例如,在一些实施例中,向内的电磁辐射发射器将红外光谱中的光发射到用户的视网膜、接收反射光并匹配反射光的波长以确定诸如组织的类型或组织中的氧饱和度的物理特性。在一些实施例中,该系统包括面向外的光源并向目标对象(例如用户或第三人的四肢)发射红外光、接收反射光并匹配反射光波长以确定观察到的材料。例如,这种面向外的系统可以检测健康细胞中癌细胞的存在。因为癌细胞或其他异常细胞以不同于健康细胞的方式反射和吸收光,所以在某些波长下的光反射可以指示异常的存在和数量。
在一些实施例中,控制器从真实世界捕获系统接收捕获的目标对象,并将标签应用于指示所识别的特性的目标对象。在一些实施例中,标签是头戴式部件的显示器内的文本标签或提示。在一些实施例中,标签是对用户的音频提示。在一些实施例中,标签是例如医学书中所引用的类似组织的虚拟图像,该虚拟图像叠加在目标对象附近,以供用户准备进行比较分析。
在一些实施例中,头戴式部件可包括眼镜框架。眼镜框架可以是双目眼镜框架。一个或多个辐射发射器可包括光源,例如发光二极管。一个或多个辐射发射器可包括多个光源,该多个光源被配置为发射两个或更多个不同波长的电磁辐射。多个光源可以被配置为发射约660纳米的第一波长和约940纳米的第二波长的电磁辐射。一个或多个辐射发射器可以被配置为顺序地发射两个不同波长的电磁辐射。一个或多个辐射发射器可以被配置为同时发射两个预定波长的电磁辐射。一个或多个电磁辐射检测器可以包括从由光电二极管、光电检测器和数字相机传感器构成的组中选择的器件。一个或多个电磁辐射检测器可以被定位和定向以接收在遇到目标对象之后反射的光。一个或多个电磁辐射检测器可以被定位和定向以接收在遇到观察到的组织或材料之后反射的光;也就是说,无论是朝向用户的眼睛面向内还是朝向用户的环境面向外,一个或多个电磁辐射检测器基本上沿与一个或多个电磁辐射发射器相同的方向定向。
控制器还可以被配置为使多个光源发射第一波长开、然后第二波长开、然后两个波长都关的循环图案,使得一个或多个电磁辐射检测器分开地检测第一和第二波长。控制器可以被配置为使多个发光二极管以大约每秒三十次的循环脉冲模式发射第一波长开、然后第二波长开、然后两个波长都关的循环图案。
在一些实施例中,控制器可以被配置为计算第一波长光测量与第二波长光测量的比率。在一些实施例中,该比率可以至少部分地基于比尔-朗伯特(Beer-Lambert)定律经由查找表进一步转换为氧饱和度读数。在一些实施例中,该比率被转换为外部查找表中的材料标识符,该标识符例如存储在头戴式部件上或者耦合到本地或远程处理模块上的头戴式部件的吸收数据库模块中。例如,用于特定组织的吸收比率或波长反射的吸收数据库模块可以存储在医疗保健提供者可访问的并且通过远程处理模块访问的“云”存储系统中。在一些实施例中,吸收数据库模块可以存储某些食物的吸收特性(例如波长比率或波长反射)并且被永久地存储在到头部安装部件的本地处理模块上。
以这种方式,控制器可以被配置为操作一个或多个电磁辐射发射器和一个或多个电磁辐射检测器,以用作广泛使用的头戴式光谱仪(spectroscope)。控制器可操作地耦合到光学元件,该光学元件耦合到头戴式部件并且可由用户观看,使得可由用户通过光学元件观看到控制器的指示波长特性的输出,该波长特性指示特定组织特性或材料。一个或多个电磁辐射检测器可以包括数字图像传感器,该数字图像传感器包括多个像素,其中所述控制器被配置为自动检测像素子集,该像素子集接收在遇到例如组织或组织内的细胞之后反射的光。在一些实施例中,这种像素子集用于产生代表数字图像传感器的视场内的目标对象的输出。例如,输出可以是指示组织的吸收水平的显示标签。在一些实施例中,比较值被显示为输出。例如,输出可以是来自第一分析时间的血液中氧的百分比饱和度和第二分析时间的氧的百分比饱和度以及在两个时间之间记录的变化率。在这些实施例中,可以通过识别测量的特性随时间的变化来检测诸如糖尿病性视网膜病的疾病。
在一些实施例中,控制器可以被配置为至少部分地基于与像素相关联的信号之间的反射光亮度差异来自动检测像素子集。控制器可以被配置为至少部分地基于与像素相关联的信号之间的反射光吸收差异来自动检测像素子集。在这样的实施例中,这样的子集可以是隔离的像素并且被标记以用于进一步的分析,例如用于附加的辐射或映射,或者虚拟图像可以覆盖在这样的像素上以提供与显示其他特性的隔离像素的视觉对比度以用作通知用户由系统识别的子像素的不同特性。
在一些实施例中,系统数据收集不仅对于脉冲和记录光脉冲是时分多路复用的,而且每天多次被被动地收集。在一些实施例中,GPS或其他类似的映射系统耦合到系统,以将用户的位置或一天中的时间与收集的某些生理数据相关联。例如,用户可以在一天中跟踪相对于某些位置或活动的生理响应。
当进一步考虑以下附图和描述时,将理解本发明的这些和许多其他特征和优点。
附图说明
图1示出了向用户的增强现实系统呈现的某些方面。
图2A-2D示出了用于可穿戴计算应用的各种增强现实系统的某些方面,其特征在于可操作地耦合到本地和远程处理和数据组件的头戴式组件。
图3示出了可穿戴增强或虚拟现实系统与某些远程处理和/或数据存储源之间的连接范例的某些方面。
图4A-4D示出了脉搏血氧测定配置和与血液的氧合中的光散射有关的校准曲线的各个方面。
图5示出了根据一些实施例的集成AR/VR功能的头戴式光谱检查系统。
图6示出了根据一些实施例的以集成的光谱检查模块为特征的可穿戴AR/VR系统的各个方面。
图7A-7B是指示通过波长的选择特性的示例光饱和度图表。
图8示出了根据一些实施例的用于通过头戴式光谱检查系统识别材料或材料特性的方法。
具体实施方式
一些AR和VR系统包括处理能力,例如控制器或微控制器,以及还包括用于为各种组件的功能供电的电源,并且由于诸如AR或VR系统的可穿戴计算系统中的至少一些组件靠近操作它们的用户的身体的事实,有机会利用这些系统组件中的一些来相对于用户进行某些生理监测。例如,可以通过测量光吸收来进行生理监测。
在常规的光吸收测量技术(例如,如图4A所示或者在葡萄糖检测中的可附接到人的手指的脉搏血氧测量仪)中,光被以受控且固定的方向发射并且被接收在受控且固定的接收器中。光以不同波长脉冲通过周围的组织结构,同时还在组织结构的另一侧被检测(因此测量光特性,例如吸收和散射)。在这样的系统中,发射的光的测量与检测的光的测量相比可以提供与估计的组织或组织特性成比例的输出或读取作为估计的组织或组织特性的输出(例如,脉搏血氧测量仪的估计的血氧饱和度水平)或者仅仅是材料或组织类型的输出。如图4D所示,描绘感兴趣的光相对于其他光的比率的校准曲线也可以预测下方组织的特性,该特性取决于入射到其上的光。
拉曼光谱是测量由辐射分子释放的光子的非弹性散射的另一种技术。当被照射时,特定分子将呈现波长的特定偏移,从而呈现可用于测量和量化样品内的分子的独特散射效应。
图4B示出了氧合(806)与脱氧(808)的血红蛋白的吸收光谱图,如这样的曲线(806、808)所示,在电磁光谱的红光波长范围内,例如在约660nm,氧合血红蛋白与脱氧血红蛋白的吸收存在显著差异,而在红外波长范围内在约940nm存在反转差异。已知在对于特定用户的氧饱和度的确定中,这样的波长下的脉冲辐射和使用脉冲血氧仪的检测利用这种吸收差异。
虽然脉冲血氧仪(802)通常被配置为至少部分地包裹诸如手指(804)或耳垂的组织结构,但是已经提出了某些桌面式系统,例如图4C中所示的那些(812),以观察例如视网膜血管的眼睛血管的吸收差异,但也可以被配置为检测其他组织的特性。
这样的配置(812)可以被称为流量(flow)血氧仪或光谱仪系统并且可以包括如图所示的组件,包括相机(816)、变焦透镜(822)、第一(818)和第二(820)发光二极管(LED)以及一个或多个分束器(814)。虽然对于某些用户来说是有价值的,例如高海拔徒步者、运动员或有某些心血管或呼吸问题的人,以当他们在一天中移动并进行活动时能够检索他们的血氧饱和度的信息,或者对于护理人员能够对于潜在的异常来实时分析组织,但是大多数配置涉及组织结构的有些不方便的包裹或者是不便携的或不可穿戴的、不考虑指示其他组织状态或材料的其他吸收特性或者不将用户正在看的凝视(gaze)作为其传感器的方向性的一部分(换句话说,缺乏用于通过光谱检查进行识别和分析的目标对象的选择性)。
有利地,在一些实施例中,本文提出了一种解决方案,其将AR或VR系统形式的可穿戴计算的便利性与成像装置相结合,以实时确定用户的视场内的附加组织识别和特性。
参考图2A-2D,示出了一些通用组件选项。在关于图2A-2D的讨论之后的详细描述的部分中,呈现了各种系统、子系统和组件,用于解决为访问和创建外部信息源的人类VR和/或AR提供高质量、舒适感知的显示系统的目标。
如图2A所示,AR系统用户(60)被描绘为佩戴头戴式组件(58),该头戴式组件(58)以耦接到位于用户眼睛前方的显示系统(62)的框架(64)结构为特征。扬声器(66)耦接到以所示配置的框架(64)并且位于用户的耳道附近(在一个实施例中,另一个扬声器(未示出)位于用户的另一耳道附近以提供给立体声/可塑形声音控制)。显示器(62)可操作地(诸如通过有线引线或无线连接)被耦接(68)到本地处理和数据模块(70),本地处理和数据模块(70)可以以各种配置安装,诸如被固定地附到框架(64)上、被固定地附到如图2B的实施例示出的头盔或帽子(80)上、被嵌入耳机内、以图2C的实施例示出的背包式配置可拆卸地附到用户(60)的躯干(82)、或以图2D的实施例示出的带耦接式配置可拆卸地附到用户(60)的臀部(84)。
本地处理和数据模块(70)可以包括处理器和控制器(例如,功率有效的处理器或控制器)以及诸如闪速存储器的数字存储器,这两者都可用于辅助处理、高速缓存和存储数据,该数据包括:a)从可以可操作地耦接到框架(64)的传感器捕捉的数据,所述传感器诸如为电磁发射器和检测器、图像捕捉装置(诸如相机)、麦克风、惯性测量单元、加速度计、罗盘、GPS单元、无线电装置和/或陀螺仪;和/或b)使用远程处理模块(72)和/或远程数据储存库(74)获取和/或处理的数据,这些数据可以在这样的处理或检索之后被传送到显示器(62)。本地处理和数据模块(70)可以诸如经由有线或无线通信链路可操作地耦接(76、78)到远程处理模块(72)和远程数据储存库(74),使得这些远程模块(72、74)可操作地彼此耦接并且可用作本地处理和数据模块(70)的资源。
在一个实施例中,远程处理模块(72)可以包括一个或多个相对强大的处理器或控制器,这些处理器或控制器被配置为分析和处理数据、发射的或接收的光特性和/或图像信息。在一个实施例中,远程数据储存库(74)可以包括相对大规模的数字数据存储设施,该设施可以通过因特网或“云”资源配置中的其它网络配置而可用。在一个实施例中,存储所有数据并且在本地处理和数据模块中执行所有计算,允许从任何远程模块完全自主使用。
现在参考图3,示意图示出了云计算资产(46)和本地处理资产之间的协调,该本地处理资产可以例如存在于耦接到用户头部(120)的头戴式组件(58)和耦接到用户的腰带(308;因此组件70也可以称为“腰带包”70)本地处理和数据模块(70)中,如图3所示。在一个实施例中,诸如一个或多个服务器系统(110)的云(46)资产诸如经由有线或无线网络(无线通常优选用于移动性,有线通常优选用于可能需要的某些高带宽或高数据容量传输)可操作地直接耦接(115)到(40、42)如上所述耦接到用户的头部(120)和腰带(308)的本地计算资产中的一个或两个,该本地资产诸如处理器和存储器配置。对用户而言为本地的这些计算资产也可以经由有线和/或无线连接配置(44)可操作地彼此耦接,诸如下面参考图8讨论的有线耦接(68)。
在一个实施例中,为了保持安装到用户头部(120)的低惯性和小尺寸子系统,用户和云(46)之间的主要传输可以经由安装在腰带(308)的子系统和云之间的链路,其中头戴式(120)子系统主要使用无线连接(诸如超宽带(“UWB”)连接)数据连接(data-tether)到基于腰带的(308)子系统,如当前例如在个人计算外围连接应用中所采用的那样。
通过有效的本地和远程处理协调以及用于用户的诸如图2A所示的用户界面或用户显示系统(62)或其变型的适当的显示装置,与用户当前的实际或虚拟位置相关的一个世界的方面可以被传输或“传递”给用户并以有效的方式更新。换言之,可以在存储位置处连续地更新世界的映射(map),该存储位置可以例如部分地存在于用户的AR系统上并且部分地存在于云资源中。映射(也称为“可传递的世界模型”)可以是包括栅格图像、3-D和2-D点、参数信息以及关于真实世界的其他信息的大型数据库。随着越来越多的AR用户(例如,通过相机、传感器、IMU等)不断地捕获关于他们的现实环境的信息,映射变得越来越准确和完整。
利用如上所述的配置,其中存在可以位于云计算资源上并且从那里分配的一个世界模型,这样的世界可以以相对低的带宽形式“可传递”给一个或多个用户,优选尝试传递实时视频数据等。在一些实施例中,站在雕像(即,如图1所示)附近的人的增强体验可以通过基于云的世界模型来通知,该基于云的世界模型的子集可以被向下传递给基于云的世界模型以及他们的本地显示装置以完成视图。坐在远程显示装置处的人(其可以像坐在桌子上的个人计算机一样简单)可以有效地从云中下载相同的信息部分并将其呈现在他们的显示器上。事实上,实际出现在雕像附近的公园里的一个人可能会带一个位于远方的朋友在那个公园散步,其中该朋友通过虚拟和增强现实加入。系统将需要知道街道的位置、树的位置、雕像的位置-但是关于在云上的那些信息,加入的朋友可以从场景的云方面下载,然后作为相对于实际在公园里的人为本地的增强现实开始一起散步。
可以从环境捕获三维(3-D)点,并且可以确定捕获那些图像或点的相机的姿态(即,相对于世界的矢量和/或原点位置信息),以便这些点或图像可以被该姿态信息“标记”或与该姿态信息相关联。然后,可以利用由第二相机捕获的点来确定第二相机的姿态。换言之,可以基于与来自第一相机的标记图像的比较来定向和/或定位第二相机。然后,可以利用这些知识来提取纹理(texture)、制作映射以及创建真实世界(因为那时在那周围注册了两个相机)的虚拟副本。
因此,在基础水平处,在一些实施例中,可以利用人佩戴系统来捕获3-D点和产生这些点的2-D图像两者,并且这些点和图像可以被传输到云存储和处理资源。它们也可以被本地高速缓存为具有嵌入的姿态信息(例如,高速缓存标记的图像);因此,云可以具有准备好的(例如,在可用的高速缓存中)标记的2-D图像(例如,被3-D姿态标记)以及3-D点。如果用户正在观察动态的东西(例如,具有移动的对象或特征的场景),他/她还可以将另外的信息传输到与运动相关的云(例如,如果观看另一个人的脸部,用户可以拍摄脸部的纹理映射并在优化频率下将其向上推(push up),即使周围的世界基本上是静态的)。如上所述,关于对象识别器和可传递的世界模型的更多信息可以在名称为“System and method foraugmented and virtual reality(用于增强和虚拟现实的系统和方法)”的序列号为No.14/205,126的美国专利申请中找到,其全部内容通过引用并入本文,以及在以下附加公开内容中找到,其涉及诸如由弗罗里达州劳德代尔堡的奇跃股份有限公司开发的增强和虚拟现实系统:序列号为14/641,376的美国专利申请;序列号为14/555,585的美国专利申请;序列号为14/212,961的美国专利申请;序列号为14/690,401的美国专利申请;序列号为13/663,466的美国专利申请;序列号为13/684,489的美国专利申请;以及序列号为62/298,993的美国专利申请,其中每一者在此通过引用整体并入本文。
在一些实施例中,这种可传递的世界信息的使用可以允许通过光谱检查对对象的识别和标记然后在用户之间传递。例如,在临床环境中,操作实现本公开的特征的装置的第一护理人员可以对患者上的癌组织进行映射(map)和检测,并且将与元标签非常类似的虚拟标签分配和应用于该组织。然后,类似地佩戴这种装置的第二护理人员可以查看相同的癌组织细胞群并接收识别这些细胞的虚拟标签的通知,而不需要参与发射光、接收光、使吸收特征与组织匹配以及独立地标记组织中的一个或多个。
GPS和其他定位信息可以用作这种处理的输入。应当理解,用户的头部、图腾、手势、触觉装置等的高度精确定位可能是有利于向用户显示适当的虚拟内容在可传递的世界中在用户当中显示可传递的虚拟或增强的内容。
参考图5,可穿戴计算配置的可头戴组件(58)的顶部正交视图被示出为以用于示例性光谱检查系统的各种集成组件为特征。该配置以以下部件为特征:两个显示元件(62-双目-每只眼睛一个);两个向前定向的相机(124),其用于观察和检测用户周围的世界,每个相机(124)具有相关联的视场(18、22);具有视场(20)的至少一个光谱检查阵列(126,在图6中更详细地描述);还有具有视场(26)的向前定向的相对高分辨率图片相机(156);一个或多个惯性测量单元(102);以及具有相关联的视场(24)的深度传感器(154),例如如前面引用的参考公开内容所述。朝向用户的眼睛(12、13)并且耦合到头戴式组件(58)框架的是眼睛跟踪相机(828、830)和向内发射器和接收器(832、834)。本领域技术人员将理解,向内发射器和接收器(832、834)以与光谱检查阵列(126)对其视场(20)中的向外对象作用的方式相同的辐射图案(824、826)发射和接收指向眼睛的光。这些组件或不包括所有组件的组合例如通过引线可操作地耦合到控制器(844),该控制器(844)可操作地耦合(848)到例如电池的电源(846)。
在一些实施例中,显示元件(62)包括一个或多个波导(例如,波导堆叠),该一个或多个波导是光学透射的并且允许用户通过接收来自世界的光来“看到”世界。波导还接收包含显示信息的光并将传播光且将光射到用户的眼睛(12、13),从而向用户显示图像。优选地,从波导传播出的光提供与不同深度平面对应的特定的且限定的波前发散(divergence)水平(例如,形成距用户特定距离处的对象的图像的光具有波前发散度,该波前发散度与如果真实地将从该对象到达用户的光的波前发散度对应或基本匹配)。例如,波导可以具有光功率并且可以被配置为输出具有选择性可变波前发散水平的光。应当理解,该波前发散度提供了关于眼睛(12、13)的适应(accommodation)的提示。另外,显示元件(62)利用双目视差来进一步提供深度提示,例如,关于眼睛(12、13)的聚散(vergence)的提示。有利地,关于适应的提示和关于聚散的提示可以匹配,例如,使得它们都对应于距用户相同距离处的对象。这种适应-聚散匹配有利于利用头戴式部件(58)的系统的长期可穿戴性。
继续参考图5,优选地,每个发射器(126、832、834)被配置为例如通过LED可控地发射两个或更多个波长的电磁辐射,例如约660nm和约940nm,并且优选地辐射场(824、826)被定向为照射目标对象或表面。在一些实施例中,目标对象是向内的,例如眼睛(12、13),并且辐射图案(824、826)可以被固定或加宽/变窄以响应于眼睛跟踪相机数据点而指向眼睛的特定区域。在一些实施例中,目标对象是向外的(例如,远离用户),并且光谱仪阵列(126)的视场(20)内的辐射图案符合从眼睛跟踪相机(828、830)确定的眼睛(12、13)的凝视。
在一些实施例中,凝视可以被理解为从用户的眼睛延伸的矢量,例如通过眼睛的晶状体从中央凹延伸,发射器(832、834)可以关于用户的眼睛输出红外光,可以监测来自眼睛的反射(例如,角膜反射)。眼睛的瞳孔中心(例如,显示系统可以例如通过红外成像确定瞳孔的质心)与来自眼睛的反射之间的矢量可以用于确定眼睛的凝视。在一些实施例中,当估计眼睛的位置时,由于眼睛具有巩膜和眼球,因此几何形状可以表示为在彼此顶上层叠的两个圆。可以基于该信息确定或计算眼睛指向矢量。还可以估计眼睛旋转中心,因为眼睛的横截面是圆形的并且巩膜摆动特定角度。由于接收信号与已知发射信号的自相关,这可能导致矢量距离而不仅仅是射线迹线。输出可以被看作浦肯野(Purkinje)图像1400,其可以进而用于跟踪眼睛的运动。
本领域技术人员将理解例如通过由IMU(102)中的一个或多个确定的头部姿势信息确定视场(20)内的辐射图案的其他方式。
在一些实施例中,发射器可以被配置为利用受控的脉冲(pulsatile)发射循环同时或顺序地发射波长。一个或多个检测器(126、828、830)可以包括光电二极管、光电检测器和/或数字相机传感器,并且优选地被定位和定向成接收已经以其他方式与目标组织或材料或对象相遇的辐射。一个或多个电磁辐射检测器(126、828、830)可以包括数字图像传感器,该数字图像传感器包括多个像素,其中控制器(844)被配置为自动检测像素子集,该像素子集接收在遇到目标对象之后反射的光,并且控制器(844)被配置为使用这样的像素子集产生输出。
在一些实施例中,输出取决于将相对于发射的光的所接收的光与来自材料和材料特性的吸收数据库的目标匹配。例如,在一些实施例中,吸收数据库包括如图7A和7B中所示的多个吸收图表。应当理解,包括图表的数据库可以包括图表中的信息的电子表示或变换,并且这里的术语图表的使用包括这样的表示或变换。图7A和7B仅用作示例,但展示了可以从给定系统检测到的各种组织特性,该系统发射来自特定光源的光并接收特定波长和/或光特性的光以确定观察的目标是特定组织或具有组织内的特定特性的概率。例如饱和度曲线或校准曲线的其他图表可以由用户选择性地访问。例如,用户可以选择特定光源或波长图案的吸收数据库,然后环顾四周,直到光谱系统识别出与所要求的特性匹配的材料。这样的实施例可以被称为“封闭搜索”或者被称为与查看任何目标的“开放搜索”相对的寻找特定特性然后搜索数据库以查找与检测到的光特性的匹配的一种实施例。
控制器(844)可以被配置为至少部分地基于与像素相关联的信号之间的反射光特性差异来自动检测视场(124或126或824、826,图5)内的像素子集。例如,控制器(844)可以被配置为至少部分地基于与像素相关联的信号之间的反射光吸收差异来自动检测像素子集。在不受理论限制的情况下,撞击对象的光将在击到对象时反射、透射(吸收)或散射,使得R+T+S=1(R=来自对象的反射,T=到对象的透射/吸收,S=从对象的散射)。如果特定像素子集相对于周围子像素反射较高比例的光,则控制器可以隔离这些子像素或者在存储器系统中记录或登记关于这些不同的特性的像素位置。在一些实施例中,像素位置存储在可传递的世界映射系统中作为密集或稀疏的映射点,例如头戴式显示系统的附加用户访问映射,像素子集被传递给附加用户并被第二用户显示器访问和/或显示在第二用户显示器上。
参考图6,光谱检查阵列(126)可包括朝向目标对象(620)发射光(613)的光源(612)。在一些实施例中,光源(612)是例如发光二极管的电磁发射器。在一些实施例中,发射光(613)的方向与用户(60)的凝视取向或用户(60)的头部姿势取向基本相同。在一些实施例中,光电检测器(614)捕获来自目标对象的反射光(615)。在一些实施例中,可以是图5中描绘的控制器(844)的处理器(610)确定发射光(613)和反射光(615)之间的吸收特性并匹配来自吸收数据库(630)的特性。在一些实施例中,吸收数据库(630)存储在例如图2A中所示的模块(70)的本地处理模块上;在一些实施例中,吸收数据库(630)存储在例如图2A中所示的远程处理模块的远程处理模块(72)上。
为简单起见,对象(620)在图6中被描绘为苹果,并且虽然食物特性具有其各自的光吸收特性,以及本发明的实施例可以用于通过其光特性来识别食物,但是也可以设想更复杂的用途。在一些实施例中,面向外的光谱检查阵列(126)识别组织源(624),例如,为了说明的目的而描绘的手臂。发射光(613)可以撞击组织源(624),反射光(615)可以指示规则细胞(625)中存在不规则细胞(626)。当光源(612)照射组织源(624)时,不规则细胞(626)将与规则细胞(625)不同的光特性返回到光检测器(614)。不规则细胞(626)可以是癌性的、是瘢痕组织的一部分或者甚至是组织中的健康细胞,该健康细胞仅简单地指示或具有与周围细胞的差异,例如指示组织源(624)内的血管或骨可能位于的位置。在一些实施例中,规则细胞构成分析中的样品中的大部分细胞,不规则细胞构成样品的少数细胞,不规则细胞表现出与规则细胞不同的可检测特性。在一些实施例中,捕获像素级图像的真实世界相机可以标记这样的不规则细胞(626)。如前所述,一个这样的标记可以是应用接近不规则细胞(626)的文本图像的标记系统,另一个这样的标记系统可以是不规则细胞(626)上的颜色覆盖,如通过显示元件62(图5)所见。
因此,再次参考图5,提出了一种用于通过例如用于AR或VR的系统的可穿戴计算系统确定组织特性或材料的系统包括:头戴式部件(58),其可拆卸地耦合到用户的头部;一个或多个电磁辐射发射器(126、832、834),其耦合到头戴式部件(58)并且被配置为在向内或向外方向上发射具有至少两个不同波长的光;一个或多个电磁辐射检测器(126、828、830),其耦合到头戴式部件并且被配置为接收在遇到目标对象之后反射的光;以及控制器(844),其可操作地耦合到一个或多个电磁辐射发射器(126、832、834)和一个或多个电磁辐射检测器(126、828、830)并被配置为使一个或多个电磁辐射发射器发射光脉冲,同时还使一个或多个电磁辐射检测器检测与发射的光脉冲相关的光吸收水平并产生可显示的输出。
头戴式部件(58)可包括被配置为放在用户的头部上的框架,例如眼镜框架。眼镜框架可以是双目眼镜框架;替代实施例可以是单眼眼镜框架。一个或多个发射器(126、832、834)可以包括发射多个波长的光的光源,例如至少一个发光二极管或其他电磁辐射发射器。多个光源可以被配置为优选地以两个波长的光发射,例如,约660纳米的第一波长和约940纳米的第二波长。
在一些实施例中,一个或多个发射器(126、832、834)可以被配置为顺序地发射相应波长的光。在一些实施例中,一个或多个发射器(126、832、834)可以被配置为同时发射相应波长的光。一个或多个电磁辐射检测器(126、828、830)可以包括从由光电二极管、光电检测器和数字相机传感器构成的组中选择的装置。控制器(844)还可以被配置为使得多个发光二极管发射第一波长开、然后第二波长开、然后两个波长都关的循环图案,使得一个或多个电磁辐射检测器分开地检测第一波长和第二波长。控制器(844)可以被配置为使得多个发光二极管以大约每秒三十次的循环脉冲模式发射第一波长开、然后第二波长开、然后两个波长都关的循环图案。控制器(844)可以被配置为计算第一波长光测量与第二波长光测量的比率,其中该比率至少部分地基于比尔-朗伯特定律经由查找表转换为氧饱和度读数。
控制器(844)可以被配置为操作一个或多个发射器(126、832、834)和一个或多个电磁辐射检测器(126、828、830)以用作头戴式光谱仪。控制器(844)可操作地耦合到光学元件(62),该光学元件(62)耦合到头戴式部件(58)并且可由用户观看,使得控制器(844)的指示特定材料特性或组织特性的输出可以由用户通过光学元件(62)而观看到。
图7A是可以由吸收数据库(630,图6)引用的示例性光特性吸收图表。如图所示,可见光谱中的例如IR、NIR或发光二极管的各种光源类型对于检测组织内的某些组织和特性可能是最佳的。在一些实施例中,校准曲线中的吸收比率或散射是从发射光到反射光计算的并施加到诸如图7A所示的给定的吸收数据库(630),以确定其中的下方组织和/或特性或确定异常。
图7B描绘了波长的潜在“重叠”。如图所示,“氧合血液”可以在某些波长处与“脱氧血液”重叠,导致使光谱过程可以提供的结果静音(mute)。为了避免这种潜在的重叠,在一些实施例中,发射第二不同波长的光以提供第二光源以进行测量和比较。
图8示出了用于使用以光谱检查组件为特征的可穿戴AR/VR系统的方法(850),以识别组织或组织内的特性。方法(850)开始于(851),其中系统将光源定向到目标对象。在一些实施例中,定向使得光源向内指向用户的眼睛,并且该定向可以被固定或扫描眼睛,例如扫描视网膜。在一些实施例中,定向是通过确定用户的眼睛凝视或头部姿势并使光源以朝向这样的凝视或姿势视场内的目标对象或者朝向特征地标或目标对象基本相同的方向而定向。
在一些实施例中,在(852)处,光源以朝向目标对象或表面的辐射图案发射光。在一些实施例中,通过计时器以定时间隔脉冲光。在一些实施例中,光源发射至少一个波长的光,并且在(854)处,例如光电检测器的辐射检测器接收反射光。在一些实施例中,检测器还可操作地耦合到计时器,以指示接收的光是否最初在特定时间被脉冲,以确定在目标对象上反射时的光特性的变化。在一些实施例中,(852)与(853)处的映射同时开始,但是该序列不一定如此。
在一些实施例中,在(853)处,真实世界捕获系统可以开始映射目标对象。在一些实施例中,这种映射可以包括接收目标对象的可传递的世界数据。在一些实施例中,映射可以包括目标对象的外形(contour)的深度传感器分析。在一些实施例中,映射可以包括建立视场内的物品的网格模型并参考它们以用于潜在的标记。在一些实施例中,目标对象不是视场内的可以由深度传感器捕获的特定对象,而是视场本身内的深度平面。
在一些实施例中,在(855)处,例如在比尔-朗伯特定律或光密度关系(下面描述)或校准曲线的散射图案下,控制器分析与接收光相比的发射光。在一些实施例中,在(856)处,比较的光特性在吸收数据库中被引用或者被本地存储在系统上或者通过系统远程访问,以识别目标对象的组织或组织特性。在一些实施例中,吸收数据库可以包括例如图4B中所示的图表的饱和光图表或者可以包括特定光波长的校准曲线。
在一些实施例中,在(854)处,辐射检测器不接收与在(852)处发射的光的波长不同的波长的光,并且控制器不能进行光谱分析。这种情况将如图7B中那样发生,其中对于氧合和脱氧血液,波长在某些范围内重叠。在一些实施例中,在(854a)处,在发射光和接收光之间没有检测到波长差异,并且子步骤(854b)通过发射与在(852)处发射的波长不同的另一不同波长的光来启动。然后,在(855)处将发射的新光和接收的光的信息传送到控制器。
在一些实施例中,在映射目标对象(853)之后并且可能与(852至856)中的每一个同时发生,在(857)处,真实世界相机可以另外识别视场内的指示不规则性的子像素。例如,在一些实施例中,在(853)处的真实世界捕获期间检测像素之间的颜色对比度并且,在(857)处,进一步更改这些像素以突出显示这样的对比度,从而作为潜在的不健康细胞。在一些实施例中,真实世界捕获(853)检测像素簇之间的不规则线,并且在(857)处,由不规则线界定的像素在用户显示器上被标记(例如通过虚拟颜色覆盖)。
在一些实施例中,方法(850)终止于(858),系统向用户显示组织或组织的材料特性。在一些实施例中,显示器可包括虚拟地显示在目标对象附近的文本标签、描述从吸收数据库确定的目标对象的音频标签(630)或者并置在目标对象附近的由吸收数据库识别的类似组织或对象的虚拟图像(630)。
在一些实施例中,使用由控制器(844)操作的软件实现显著量的光谱检查活动,使得使用数字图像处理(例如通过使用各种滤波器的颜色、灰度和/或强度阈值分析)进行定位期望目标(例如,血管、肌肉组织、骨组织或其他组织以及在所需的深度)的初始任务。这种靶向可以使用图案、形状识别或纹理识别来进行。癌细胞或其他不规则细胞通常具有不规则的边界。相机系统可以识别相机视场内的一系列像素(例如图5中的相机124和视场18、22),其具有不规则的非线性图案并且具有瞬时注意力(prompt attention)以识别到潜在地不健康的细胞的边界。可选地,软件和控制器可以被配置为使用目标对象的中心强度和周围对象/组织的强度来确定与目标对象的对比度/光密度以确定异常。这些测量可以仅用于识别与本公开一致的光谱仪扫描的感兴趣区域,并且不一定是识别组织本身的手段。此外,如先前参考图6中的不规则细胞(626)所描述的,增强现实系统可以在潜在不健康细胞的边界内覆盖标签或颜色图案以相对于周围的健康细胞而标记它们/突出显示它们。
在一些实施例中,控制器(844)可用于计算密度比率(对比度)并根据血管中各种脉搏血氧测定特性的密度比率计算氧饱和度。可以使用以下式子计算在两个或更多个发射波长中的每一个处的血管光密度(“O.D.”):
ODvessel=-log10(Iv/It)
其中ODvessel是血管的光密度;Iv是血管强度;It是周围的组织强度。
血管中的氧饱和度(也称为“SO2”)可以计算为两个波长处的血管光密度(OD比或“ODR”)的线性比率,使得:
SO2=ODR=OD第一波长/OD第二波长
在一个实施例中,可以在血管血氧测定中使用约570nm(对脱氧血红蛋白敏感)和约600nm(对氧合血红蛋白敏感)的波长,使得SO2=ODR=OD600nm/0D570nm;这样的式子不考虑通过校准系数来调整比率。
以上式子仅是用于计算材料特性的参考的示例。本领域技术人员将理解控制器可确定的许多其他组织特性和关系。
应当理解,利用控制器(844)来执行计算和/或进行确定可以涉及在控制器内的处理器上本地执行计算(844)。在一些其他实施例中,使用控制器执行计算和/或进行确定(844)可以涉及利用控制器与外部计算源(例如,诸如服务器(110)的云(46)中的源)面接(interface)。
计算机视觉
如上所述,光谱系统可以被配置为检测用户周围环境中的对象或对象的特征(例如,特性)。在一些实施例中,可以使用计算机视觉技术来检测环境中存在的对象或对象的特性。例如,如本文所公开的,光谱检查系统的面前向的相机可以被配置为对对象成像,并且系统可以被配置为对图像执行图像分析以确定对象上的特征的存在。系统可以分析由面向外的成像系统获取的图像、吸收确定和/或反射和/或散射光测量,以执行对象识别、对象姿势估计、学习、索引、运动估计或图像恢复等。一个或多个计算机视觉算法可以被适当地选择且用来执行这些任务。计算机视觉算法的非限制性示例包括:标度(scale)不变特征变换(SIFT)、加速稳健(robust)特征(SURF)、定向(orient)FAST和旋转(rotate)BRIEF(ORB)、二进制稳健不变可缩放关键点(BRISK)、快速视网膜关键点(FREAK)、Viola-Jones算法、Eigenfaces方法、Lucas-Kanade算法、Horn-Schunk算法、Mean-shift算法、视觉同步定位和映射(vSLAM)技术、序贯(sequential)贝叶斯估计器(例如,卡尔曼滤波器、扩展卡尔曼滤波器等)、束调整、自调节阈值(和其他阈值技术)、迭代最近点(ICP)、半全局匹配(SGM)、半全局块匹配(SGBM)、特征点直方图、各种机器学习算法(诸如,支持向量机、k-最近邻算法、朴素贝叶斯、神经网络(包括卷积或深度神经网络)、或其他有监督/无监督模型等)等等。
如本文所讨论的,可以基于一个或多个标准(例如,在一个或多个波长处的吸光度、光反射和/或光散射)来检测对象或对象的特征(包括特性)。当光谱检查系统使用计算机视觉算法或使用从一个或多个传感器组件(其可能是或可能不是光谱检查系统的一部分)接收的数据来检测周围环境中是否存在标准时,光谱检查系统然后可以用信号表示对象或特征的存在。
这些计算机视觉技术中的一个或多个也可以与从其他环境传感器(诸如例如麦克风、GPS传感器)获取的数据一起使用,以检测并确定由传感器检测到的对象的各种特性。
机器学习
可以使用各种机器学习算法来学习以识别对象的存在或对象特征。一旦经过训练,机器学习算法可以由光谱检查系统存储。机器学习算法的一些示例可以包括监督或非监督机器学习算法,其包括回归算法(例如,普通最小二乘回归)、基于实例的算法(例如,学习矢量量化)、决策树算法(例如,分类和回归树)、贝叶斯算法(例如,朴素贝叶斯)、聚类算法(例如,k均值聚类)、关联规则学习算法(例如,先验(a-priori)算法)、人工神经网络算法(例如,感知器)、深度学习算法(例如,深度玻尔兹曼机或深度神经网络)、维数减少算法(例如,主成分分析)、集成算法(例如,层叠泛化)和/或其他机器学习算法。在一些实施例中,可以针对各个数据组定制各个模型。例如,可穿戴装置可以产生或存储基础模型。基本模型可以用作起点以产生特定于数据类型(例如,特定用户)、数据组(例如,在一个或更多波长处获得的吸光度、光反射和/或光散射值的组)、条件情况或其他变体的附加模型。在一些实施例中,光谱检查系统可以被配置为利用多种技术来产生用于分析聚合数据的模型。其他技术可包括使用预限定的阈值或数据值。
用于检测对象或对象的特征的标准可以包括一个或多个阈值条件。如果对由传感器(例如,相机或光电检测器)获取的数据的分析指示通过阈值条件,则光谱检查系统可以提供指示在周围环境中检测到对象的存在的信号。阈值条件可以涉及定量和/或定性测量。例如,阈值条件可以包括与对象和/或特征存在的可能性相关联的分数或百分比。光谱检查系统可以将根据传感器的数据计算的分数与阈值分数进行比较。如果得分高于阈值水平,则光场系统可以用信号通知检测到对象或对象特征的存在。在其他实施例中,如果得分低于阈值,则光谱检查系统可以用信号通知对象或特征的不存在。
应当理解,本文描述的和/或附图描绘的过程、方法以及算法中的每一者可体现在以下项中并通过以下项被全部或部分自动化:代码模块,其由一个或多个物理计算系统、硬件计算机处理器、专用电路执行;和/或电子硬件,其被配置为执行具体和特定计算机指令。代码模块可被编译并链接到可执行程序中,安装在动态链接库中,或可用解释性编程语言编写。在一些实施例中,特定操作和方法可由特定于给定功能的电路来执行。在一些实施例中,代码模块可以由控制器(844)(图5)和/或云(46)(例如,服务器(110))中的硬件执行。
此外,本公开的功能的特定实施例在数学上、计算上或技术上都足够复杂,以至于为了执行所述功能(例如由于所涉及的计算量或复杂性)或为了基本实时地提供结果,专用硬件或者一个或多个物理计算装置(利用适当的专有可执行指令)可以是必需的。例如,视频可包括多个帧,每帧具有数百万个像素,为了处理视频数据以在商业合理的时间量内提供期望的图像处理任务或应用,专用编程计算机硬件是必需的。
代码模块或任何类型的数据可被存储在任何类型的非暂时性计算机可读介质上,诸如物理计算机存储器,包括硬盘驱动器、固态存储器、随机存取存储器(RAM)、只读存储器(ROM)、光盘、易失性或非易失性存储器以及相同和/或相似元件的组合。在一些实施例中,非暂时性计算机可读介质可以是本地处理和数据模块(70,图2C)、远程处理模块(72,图2D)和远程数据储存库(74,图2D)中的一个或多个的一部分。方法和模块(或数据)也可在各种计算机可读传输介质上作为生成的数据信号(例如,作为载波或其他模拟或数字播放信号的一部分)传输,所述传输介质包括基于无线的介质和基于有线/电缆的介质,且可采取多种形式(例如,作为单一或多路复用模拟信号的一部分,或者作为多个离散数字数据包或帧)。所公开的过程或处理步骤的结果可持久地或以其他方式存储在任何类型的非暂时性实体计算机存储器中,或可经由计算机可读传输介质进行传送。
本文所描述和/或附图所描绘的流程图中的任何过程、框、状态、步骤或功能应当被理解为潜在地表示代码模块、代码段或代码部分,它们包括在过程中实现具体功能(例如逻辑功能或算术功能)或步骤的一个或多个可执行指令。各种过程、框、状态、步骤或功能能够根据本文提供的说明性示例进行组合、重新排列、添加、删除、修改或其他改变。在一些实施例中,额外或不同的计算系统或代码模块可执行本文所述的一些或全部功能。本文所述方法和过程也不限于任何具体的顺序,且与其相关的框、步骤或状态能以适当的其他顺序来执行,例如以串行、并行或某种其他方式。可向所公开的示例实施例添加或从中移除任务或事件。此外,本文所述的实施例中的分离各种系统组件是出于说明的目的,且不应被理解为在所有实施例中都需要这样的分离。应该理解,所描述的程序组件、方法以及系统一般能一起集成在单个计算机产品中或封装到多个计算机产品中。许多实施方式变体是可行的。
在此描述了本发明的各种示例性示例。在非限制性意义上参考这些示例。提供这些示例以说明本发明的更广泛的应用方面。可以在不脱离本发明的精神和范围的情况下,可以对所描述的发明进行各种改变并可替换等同物。可以进行许多修改以使特定情况、材料、物质的组成、过程、一个或多个过程动作或一个或多个步骤适应于本发明的一个或多个目的、精神或范围。此外,如本领域技术人员将理解的,在不脱离本发明的范围或精神的情况下,在此所描述和示出的各个变型中的每一个具有分离的组件和特征,其可以容易地与其它若干实施例中的任一特征分离或组合。所有这些修改旨在处于与本公开相关联的权利要求的范围内。
本发明包括可以使用主题装置执行的方法。该方法可以包括提供这种合适的装置的动作。这种提供可以由终端用户执行。换言之,“提供”动作仅仅需要终端用户获得、访问、接近、定位、设置、激活、开启或以其它方式提供在该方法中的必要装置。在此所述的方法可以按逻辑上可能的所述事件的任何顺序以及按照所记载的事件顺序进行。
以上已经阐述了本发明的示例性方面以及关于材料选择和制造的细节。关于本发明的其它细节,可以结合上述参考的专利和出版物以及本领域技术人员通常所知或理解的来理解这些。关于根据本发明的基础方法的方面在通常或逻辑上利用的附加动作方面同样可以成立。
另外,虽然已经参考可选地并入各种特征的若干示例描述了本发明,但是本发明不限于针对本发明的每个变型所构想的描述或指示的发明。在不脱离本发明的精神和范围的情况下,可以对所描述的本发明进行各种改变,并且可以替代等同物(为了简洁起见,不论在此是否包括)。此外,在提供了值的范围的情况下,应当理解,在该范围的上限和下限之间的每个中间值以及在该所述范围内的任何其它所述或中间值都包含在本发明内。
另外,可构想的是所描述的本发明变形的任何可选特征可独立地或与在此所描述的特征中的任何一个或多个相结合来陈述和要求权利。引用单数项包括可能存在相同项的复数。更具体地,如在此和关联权利要求书所使用的,单数形式“一”、“一个”、“所述”和“该”包括复数对象,除非另有明确说明。换句话说,在上述描述以及与本公开关联的权利要求中,允许使用冠词的“至少一个”目标项。进一步应注意,可以起草这种权利要求以排除任何可选要素。因此,结合权利要求要素或使用“负面”限制,本声明旨在作为使用“单独地”、“仅”等排他性术语的先行基础。
在不使用这种排他性术语的情况下,与本公开相关联的权利要求中的术语“包括”应允许包括任何附加元素,不考虑在这种权利要求中是否列举了给定数量的要素或添加特征可以被认为是改变在权利要求中所述的元素的性质。除了在此具体定义之外,应在保持权利要求有效性的同时给定在此使用的所有技术和科学术语尽可能广泛的通常理解含义。
本发明的广度不限于提供的实施例和/或主题说明书,而是仅由与本公开相关联的权利要求语言的范围限定。

Claims (28)

1.一种可穿戴光谱检查系统,包括:
框架,其可拆卸地耦合到用户的头部;
附接到所述框架的可头戴显示器,
至少一个面向外的光源,其耦合到所述框架并且被配置为发射具有至少两个不同波长的光;
至少一个电磁辐射检测器,其耦合到所述框架并且被配置为接收来自被所发射的光照射的目标对象的反射光;
具有至少一种材料的光吸收特性的吸收数据库;
控制器,其可操作地耦合到所述至少一个面向外的光源和所述至少一个电磁辐射检测器,所述控制器被配置为使得:
所述至少一个面向外的光源发射光脉冲;
所述至少一个电磁辐射检测器检测与所发射的光脉冲和来自所述目标对象的反射光有关的光吸收水平;以及
所检测的光吸收水平与存储在所述吸收数据库中的光吸收特性相匹配;以及
图形处理器单元,其被配置为向所述用户显示输出。
2.根据权利要求1所述的系统,其中,所述至少一个面向外的光源包括多个发光二极管。
3.根据权利要求1所述的系统,其中,所述至少一个面向外的光源被配置为发射约660纳米的第一波长和约940纳米的第二波长的电磁辐射。
4.根据权利要求1所述的系统,其中,所述至少一个面向外的光源被配置为顺序地发射所述两个预定波长的电磁辐射。
5.根据权利要求1所述的系统,其中,所述至少一个面向外的光源被配置为同时发射所述两个预定波长的电磁辐射。
6.根据权利要求1所述的系统,其中,所述控制器还被配置为使得所述至少一个面向外的光源发射第一波长开、然后第二波长开、然后第一波长和第二波长都关的循环图案,以使得所述至少一个电磁辐射检测器分开检测所述第一波长和所述第二波长。
7.根据权利要求1所述的系统,其中,所述控制器被配置为计算第一波长光测量与第二波长光测量的比率,以及其中所述系统被配置为基于所述吸收数据库将所述比率转换为组织特性。
8.根据权利要求7所述的系统,其中,所述控制器可操作地耦合到光学元件,所述光学元件耦合到所述可头戴显示器并且是由所述用户可观看到的,其中所述系统被配置为基于所述组织特性提供所述输出,其中所述输出是由所述用户通过所述光学元件可观看到的。
9.根据权利要求7所述的系统,其中,所述组织特性包括从由组织类型、估计的血液饱和度水平、异常细胞的存在和癌细胞的存在构成的组中选择的至少一种特性。
10.根据权利要求1所述的系统,其中,所述至少一个电磁辐射检测器包括从由光电二极管和光电检测器构成的组中选择的装置。
11.根据权利要求1所述的系统,其中,所述至少一个电磁辐射检测器包括数字图像传感器。
12.根据权利要求11所述的系统,其中,所述数字图像传感器包括多个像素,其中所述控制器被配置为:自动检测正在接收遇到预定组织特性之后反射的光的像素子集,并且产生显示所述像素子集的位置的输出,所述输出指示所述预定组织特性。
13.根据权利要求1所述的系统,其中,所述可头戴显示器还包括惯性测量单元定位系统。
14.根据权利要求13所述的系统,其中,所述惯性测量单元定位系统确定所述用户的头部的姿势取向。
15.根据权利要求14所述的系统,其中,所述至少一个面向外的光源被配置为在与所述用户的头部的所述姿势取向对应的方向上发射光。
16.根据权利要求1所述的系统,其中,所述可头戴显示器包括波导堆叠,所述波导堆叠被配置为将光输出到所述用户的眼睛。
17.一种光谱检查方法,包括在可穿戴光谱检查系统的一个或多个处理器的控制下:
使得所述可穿戴光谱检查系统的一个或多个光源发射具有至少两个不同波长的光脉冲以照射目标对象;
从所述可穿戴光谱检查系统的至少一个电磁辐射检测器接收一个或多个信号,所述一个或多个信号指示与所发射的光脉冲和来自被所发射的光脉冲照射的所述目标对象的反射光有关的所检测的光吸收水平;以及
使得所述可穿戴光谱检查系统经由所述可穿戴光谱检查系统的可头戴显示器向所述可穿戴光谱检查系统的用户显示基于所检测的光吸收水平的输出。
18.根据权利要求17所述的方法,还包括:基于将所检测到的光吸收水平与存储的吸收数据相匹配来确定所述输出,所述存储的吸收数据包括一种或多种材料的光吸收特性。
19.根据权利要求17所述的方法,其中,所述至少两个不同波长包括约660纳米的第一波长和约940纳米的第二波长。
20.根据权利要求17所述的方法,其中,顺序地发射所述至少两个波长的光。
21.根据权利要求17所述的方法,其中,同时发射所述至少两个波长的光。
22.根据权利要求17所述的方法,其中,所述至少两个波长的光以第一波长开、然后第二波长开、然后第一波长和第二波长都关的循环图案被发射,以使得所述至少一个电磁辐射检测器在不同时间检测所述第一波长和所述第二波长。
23.根据权利要求17所述的方法,还包括:计算第一波长光测量与第二波长光测量的比率,以及将所述比率转换为组织特性,其中,所述输出包括所述组织特性。
24.根据权利要求23所述的方法,其中,所述组织特性包括从由组织类型、估计的血液饱和度水平、异常细胞的存在和癌细胞的存在构成的组中选择的至少一种特性。
25.根据权利要求17所述的方法,其中,所述至少一个电磁辐射检测器包括从由光电二极管和光电检测器构成的组中选择的装置。
26.根据权利要求17所述的方法,其中,所述至少一个电磁辐射检测器包括数字图像传感器。
27.根据权利要求26所述的方法,其中,所述数字图像传感器包括多个像素,以及其中所述控制器被配置为:自动检测正在接收遇到预定组织特性之后反射的光的像素子集,并且产生显示所述像素子集的位置的输出,所述输出指示所述预定组织特性。
28.根据权利要求17所述的方法,还包括:经由所述可穿戴光谱检查系统的惯性测量单元定位系统来确定所述用户的头部的姿势,以及其中所述一个或多个面向外的光源在与所述用户的头部的所述姿势对应的方向上发射光。
CN202310647311.6A 2016-09-22 2017-09-22 可穿戴光谱检查系统 Pending CN116649967A (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201662398454P 2016-09-22 2016-09-22
US62/398,454 2016-09-22
CN201780071647.5A CN109997174B (zh) 2016-09-22 2017-09-22 可穿戴光谱检查系统
PCT/US2017/053067 WO2018057962A1 (en) 2016-09-22 2017-09-22 Augmented reality spectroscopy

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201780071647.5A Division CN109997174B (zh) 2016-09-22 2017-09-22 可穿戴光谱检查系统

Publications (1)

Publication Number Publication Date
CN116649967A true CN116649967A (zh) 2023-08-29

Family

ID=61621033

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201780071647.5A Active CN109997174B (zh) 2016-09-22 2017-09-22 可穿戴光谱检查系统
CN202310647311.6A Pending CN116649967A (zh) 2016-09-22 2017-09-22 可穿戴光谱检查系统

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN201780071647.5A Active CN109997174B (zh) 2016-09-22 2017-09-22 可穿戴光谱检查系统

Country Status (9)

Country Link
US (4) US10558047B2 (zh)
EP (1) EP3516630A4 (zh)
JP (3) JP7148501B2 (zh)
KR (4) KR20210072157A (zh)
CN (2) CN109997174B (zh)
AU (2) AU2017331284B2 (zh)
CA (1) CA3037725A1 (zh)
IL (3) IL293014B2 (zh)
WO (1) WO2018057962A1 (zh)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11071596B2 (en) * 2016-08-16 2021-07-27 Insight Medical Systems, Inc. Systems and methods for sensory augmentation in medical procedures
KR20210072157A (ko) 2016-09-22 2021-06-16 매직 립, 인코포레이티드 증강 현실 분광기
US20200201038A1 (en) * 2017-05-15 2020-06-25 Real View Imaging Ltd. System with multiple displays and methods of use
US20190012835A1 (en) * 2017-07-07 2019-01-10 Microsoft Technology Licensing, Llc Driving an Image Capture System to Serve Plural Image-Consuming Processes
US11017317B2 (en) 2017-12-27 2021-05-25 X Development Llc Evaluating robot learning
US11475291B2 (en) 2017-12-27 2022-10-18 X Development Llc Sharing learned information among robots
US10730181B1 (en) * 2017-12-27 2020-08-04 X Development Llc Enhancing robot learning
WO2019183399A1 (en) * 2018-03-21 2019-09-26 Magic Leap, Inc. Augmented reality system and method for spectroscopic analysis
WO2019200362A1 (en) * 2018-04-12 2019-10-17 The Regents Of The University Of California Wearable multi-modal bio-sensing system
CN108953888B (zh) * 2018-07-17 2019-06-28 东北大学 一种基于体感交互的多重减震云台装置
EP3860424A1 (en) * 2018-10-03 2021-08-11 Verily Life Sciences LLC Dynamic illumination to identify tissue type
US10914945B2 (en) 2018-11-09 2021-02-09 Facebook Technologies, Llc Inconspicuous near-eye electrical circuits
US10792122B2 (en) * 2018-12-23 2020-10-06 Taiwan Main Orthopaedic Biotechnology Co., Ltd. Object developing and calibrating method in a surgical environment
US11513003B2 (en) 2019-08-07 2022-11-29 Apple Inc. Electronic devices with beam-steered infrared light sensing
JP2023513692A (ja) * 2020-02-10 2023-04-03 インサイト メディカル システムズ インコーポレイテッド 医療処置における感覚拡張の為のシステム及び方法
DE102022119578A1 (de) 2022-08-04 2024-02-15 Ams-Osram International Gmbh Optische baugruppe zur detektion der vom auge reflektierten laserstrahlung

Family Cites Families (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6222525B1 (en) 1992-03-05 2001-04-24 Brad A. Armstrong Image controllers with sheet connected sensors
US5377674A (en) * 1992-05-08 1995-01-03 Kuestner; J. Todd Method for non-invasive and in-vitro hemoglobin concentration measurement
US5670988A (en) 1995-09-05 1997-09-23 Interlink Electronics, Inc. Trigger operated electronic device
US6305804B1 (en) * 1999-03-25 2001-10-23 Fovioptics, Inc. Non-invasive measurement of blood component using retinal imaging
AT409042B (de) 1999-11-24 2002-05-27 Life Optics Handel Und Vertrie Sehhilfe
US6554444B2 (en) * 2000-03-13 2003-04-29 Kansai Technology Licensing Organization Co., Ltd. Gazing point illuminating device
JP2002150803A (ja) 2000-03-13 2002-05-24 Kansai Tlo Kk 視線照明装置及び手術照明システム
GB0021988D0 (en) 2000-09-07 2000-10-25 Nokia Mobile Phones Ltd Management of portable radiotelephones
US8328420B2 (en) * 2003-04-22 2012-12-11 Marcio Marc Abreu Apparatus and method for measuring biologic parameters
US8248458B2 (en) * 2004-08-06 2012-08-21 University Of Washington Through Its Center For Commercialization Variable fixation viewing distance scanned light displays
JP4834977B2 (ja) 2004-11-12 2011-12-14 コニカミノルタホールディングス株式会社 シースルー型ヘッドマウントディスプレイ
WO2007019039A1 (en) * 2005-08-08 2007-02-15 Corning Incorporated Method for increasing a read-out speed of a ccd-detector
US20070081123A1 (en) 2005-10-07 2007-04-12 Lewis Scott W Digital eyewear
US8696113B2 (en) 2005-10-07 2014-04-15 Percept Technologies Inc. Enhanced optical and perceptual digital eyewear
US11428937B2 (en) 2005-10-07 2022-08-30 Percept Technologies Enhanced optical and perceptual digital eyewear
JP4961914B2 (ja) 2006-09-08 2012-06-27 ソニー株式会社 撮像表示装置、撮像表示方法
US8224020B2 (en) 2007-11-29 2012-07-17 Kabushiki Kaisha Toshiba Appearance inspection apparatus, appearance inspection system, and appearance inspection appearance
JP5537008B2 (ja) 2007-11-29 2014-07-02 株式会社東芝 外観検査装置
JP2009157634A (ja) 2007-12-26 2009-07-16 Fuji Xerox Co Ltd 照射制御装置、照射制御プログラム、視線分析システム
US20100113940A1 (en) * 2008-01-10 2010-05-06 The Ohio State University Research Foundation Wound goggles
US8443146B2 (en) 2008-09-18 2013-05-14 International Business Machines Corporation Techniques for cache injection in a processor system responsive to a specific instruction sequence
US9304319B2 (en) 2010-11-18 2016-04-05 Microsoft Technology Licensing, Llc Automatic focus improvement for augmented reality displays
JP5405445B2 (ja) 2010-12-17 2014-02-05 富士フイルム株式会社 内視鏡装置
EP4036630A1 (en) 2010-12-24 2022-08-03 Magic Leap, Inc. Image display system
US10156722B2 (en) 2010-12-24 2018-12-18 Magic Leap, Inc. Methods and systems for displaying stereoscopy with a freeform optical system with addressable focus for virtual and augmented reality
CA3035118C (en) 2011-05-06 2022-01-04 Magic Leap, Inc. Massive simultaneous remote digital presence world
US9256711B2 (en) * 2011-07-05 2016-02-09 Saudi Arabian Oil Company Systems, computer medium and computer-implemented methods for providing health information to employees via augmented reality display
US8724853B2 (en) * 2011-07-18 2014-05-13 Google Inc. Identifying a target object using optical occlusion
US8998414B2 (en) * 2011-09-26 2015-04-07 Microsoft Technology Licensing, Llc Integrated eye tracking and display system
WO2013049861A1 (en) 2011-09-29 2013-04-04 Magic Leap, Inc. Tactile glove for human-computer interaction
US9215293B2 (en) 2011-10-28 2015-12-15 Magic Leap, Inc. System and method for augmented and virtual reality
CA3024054C (en) 2011-11-23 2020-12-29 Magic Leap, Inc. Three dimensional virtual and augmented reality display system
BR112014024941A2 (pt) 2012-04-05 2017-09-19 Magic Leap Inc dispositivo de imagem de campo de visão amplo com capacidade de focalização ativa
US20140046291A1 (en) 2012-04-26 2014-02-13 Evena Medical, Inc. Vein imaging systems and methods
US20140039309A1 (en) 2012-04-26 2014-02-06 Evena Medical, Inc. Vein imaging systems and methods
AU2013274359B2 (en) 2012-06-11 2017-05-25 Magic Leap, Inc. Multiple depth plane three-dimensional display using a wave guide reflector array projector
US9671566B2 (en) 2012-06-11 2017-06-06 Magic Leap, Inc. Planar waveguide apparatus with diffraction element(s) and system employing same
WO2014015378A1 (en) * 2012-07-24 2014-01-30 Nexel Pty Ltd. A mobile computing device, application server, computer readable storage medium and system for calculating a vitality indicia, detecting an environmental hazard, vision assistance and detecting disease
CN104813218A (zh) 2012-09-11 2015-07-29 奇跃公司 人机工程学的头戴显示设备和光学系统
US9039180B2 (en) 2012-12-11 2015-05-26 Elwah LLC Self-aligning unobtrusive active eye interrogation
CA2898283C (en) 2013-01-15 2021-05-11 Magic Leap, Inc. Ultra-high resolution scanning fiber display
JP6055688B2 (ja) 2013-01-31 2016-12-27 日本光電工業株式会社 生体信号測定システム、生体信号測定装置、および生体信号測定装置の制御プログラム
EP4193906A1 (en) 2013-03-11 2023-06-14 Magic Leap, Inc. Method for augmented and virtual reality
CN105229719B (zh) 2013-03-15 2018-04-27 奇跃公司 显示系统和方法
KR20150136601A (ko) * 2013-03-25 2015-12-07 에꼴 뽈리떼끄닉 뻬데랄 드 로잔느 (으뻬에프엘) 다수의 출사동을 가진 헤드 착용 디스플레이로부터 투영된 이미지를 디스플레이하기 위한 방법
US9874749B2 (en) 2013-11-27 2018-01-23 Magic Leap, Inc. Virtual and augmented reality systems and methods
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
CN103479363B (zh) * 2013-09-30 2015-03-18 深圳市倍轻松科技股份有限公司 血液中血氧饱和度的测量方法及系统
EP3058418B1 (en) 2013-10-16 2023-10-04 Magic Leap, Inc. Virtual or augmented reality headsets having adjustable interpupillary distance
WO2015061588A1 (en) * 2013-10-23 2015-04-30 The Trustees Of Dartmouth College Surgical vision augmentation system
US20150257735A1 (en) * 2013-10-24 2015-09-17 Evena Medical, Inc. Systems and methods for displaying medical images
US9857591B2 (en) 2014-05-30 2018-01-02 Magic Leap, Inc. Methods and system for creating focal planes in virtual and augmented reality
KR20240042677A (ko) 2013-11-27 2024-04-02 매직 립, 인코포레이티드 가상 및 증강 현실 시스템들 및 방법들
FR3013906B1 (fr) 2013-11-28 2017-04-07 Commissariat Energie Atomique Antenne radio integree a meandres
WO2015094191A1 (en) 2013-12-17 2015-06-25 Intel Corporation Controlling vision correction using eye tracking and depth detection
WO2015117039A1 (en) 2014-01-31 2015-08-06 Magic Leap, Inc. Multi-focal display system and method
KR102177133B1 (ko) 2014-01-31 2020-11-10 매직 립, 인코포레이티드 멀티-포컬 디스플레이 시스템 및 방법
US10203762B2 (en) 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
KR20170046108A (ko) 2014-05-09 2017-04-28 아이플루언스, 인크. 보안 모바일 통신들과 함께 안구 신호들을 이용하는 시스템들 및 방법들
WO2015175681A1 (en) * 2014-05-15 2015-11-19 Fenwal, Inc. Head-mounted display device for use in a medical facility
CA2950432C (en) 2014-05-30 2022-01-04 Magic Leap, Inc. Methods and systems for generating virtual content display with a virtual or augmented reality apparatus
JP6468287B2 (ja) 2014-06-05 2019-02-13 株式会社ニコン 走査型投影装置、投影方法、走査装置、及び手術支援システム
NZ745107A (en) * 2014-09-29 2021-07-30 Magic Leap Inc Architectures and methods for outputting different wavelength light out of waveguides
KR20220066994A (ko) 2015-01-26 2022-05-24 매직 립, 인코포레이티드 개선된 회절 그레이팅 구조들을 갖는 가상 및 증강 현실 시스템들 및 방법들
US10666928B2 (en) 2015-02-06 2020-05-26 The University Of Akron Optical imaging system and methods thereof
US10180734B2 (en) 2015-03-05 2019-01-15 Magic Leap, Inc. Systems and methods for augmented reality
KR102634148B1 (ko) 2015-03-16 2024-02-05 매직 립, 인코포레이티드 건강 질환 진단과 치료를 위한 방법 및 시스템
USD758367S1 (en) 2015-05-14 2016-06-07 Magic Leap, Inc. Virtual reality headset
KR20210072157A (ko) 2016-09-22 2021-06-16 매직 립, 인코포레이티드 증강 현실 분광기

Also Published As

Publication number Publication date
US20220026717A1 (en) 2022-01-27
KR20240042181A (ko) 2024-04-01
JP2022192065A (ja) 2022-12-28
EP3516630A4 (en) 2020-06-03
JP7148501B2 (ja) 2022-10-05
KR102650592B1 (ko) 2024-03-22
KR20210072157A (ko) 2021-06-16
US20220404626A1 (en) 2022-12-22
KR102266343B1 (ko) 2021-06-17
JP2019529917A (ja) 2019-10-17
AU2017331284B2 (en) 2022-01-13
IL293014A (en) 2022-07-01
US20180081179A1 (en) 2018-03-22
US11460705B2 (en) 2022-10-04
CN109997174B (zh) 2023-06-02
IL265402B (en) 2022-06-01
IL293014B2 (en) 2024-03-01
KR20190051043A (ko) 2019-05-14
CA3037725A1 (en) 2018-03-29
US20200166760A1 (en) 2020-05-28
WO2018057962A1 (en) 2018-03-29
IL293014B1 (en) 2023-11-01
KR20230072515A (ko) 2023-05-24
US11079598B2 (en) 2021-08-03
AU2022202370A1 (en) 2022-04-28
EP3516630A1 (en) 2019-07-31
CN109997174A (zh) 2019-07-09
US11754844B2 (en) 2023-09-12
US10558047B2 (en) 2020-02-11
IL265402A (en) 2019-05-30
JP2023143907A (ja) 2023-10-06
IL307292A (en) 2023-11-01
AU2017331284A1 (en) 2019-04-11

Similar Documents

Publication Publication Date Title
CN109997174B (zh) 可穿戴光谱检查系统
US11644674B2 (en) Augmented reality pulse oximetry
JP2019529917A5 (zh)
US11852530B2 (en) Augmented reality system and method for spectroscopic analysis

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination