DE102016110902A1 - Head-Mounted-Devices zur Erfassung thermischer Messwerte - Google Patents

Head-Mounted-Devices zur Erfassung thermischer Messwerte Download PDF

Info

Publication number
DE102016110902A1
DE102016110902A1 DE102016110902.9A DE102016110902A DE102016110902A1 DE 102016110902 A1 DE102016110902 A1 DE 102016110902A1 DE 102016110902 A DE102016110902 A DE 102016110902A DE 102016110902 A1 DE102016110902 A1 DE 102016110902A1
Authority
DE
Germany
Prior art keywords
user
thermal
roi
interest
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102016110902.9A
Other languages
English (en)
Inventor
Arie Tzvieli
Ari M. Frank
Gil Thieberger
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Facense Ltd
Original Assignee
Facense Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Facense Ltd filed Critical Facense Ltd
Publication of DE102016110902A1 publication Critical patent/DE102016110902A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/01Measuring temperature of body parts ; Diagnostic temperature sensing, e.g. for malignant or inflamed tissue
    • A61B5/015By temperature mapping of body part
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0075Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by spectroscopy, i.e. measuring spectra, e.g. Raman spectroscopy, infrared absorption spectroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/6803Head-worn items, e.g. helmets, masks, headphones or goggles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6814Head
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7282Event detection, e.g. detecting unique waveforms indicative of a medical condition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7475User input or interface means, e.g. keyboard, pointing device, joystick
    • A61B5/748Selection of a region of interest, e.g. using a graphics tablet
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J5/00Radiation pyrometry, e.g. infrared or optical thermometry
    • G01J5/02Constructional details
    • G01J5/0265Handheld, portable
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J5/00Radiation pyrometry, e.g. infrared or optical thermometry
    • G01J5/10Radiation pyrometry, e.g. infrared or optical thermometry using electric radiation detectors
    • G01J5/12Radiation pyrometry, e.g. infrared or optical thermometry using electric radiation detectors using thermoelectric elements, e.g. thermocouples
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0271Thermal or temperature sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0271Thermal or temperature sensors
    • A61B2562/0276Thermal or temperature sensors comprising a thermosensitive compound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J5/00Radiation pyrometry, e.g. infrared or optical thermometry
    • G01J2005/0077Imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J5/00Radiation pyrometry, e.g. infrared or optical thermometry
    • G01J5/48Thermography; Techniques using wholly visual means
    • G01J5/485Temperature profile

Abstract

Wearable-Geräte zur Erfassung symmetrischer thermischer Messwerte. Ein Gerät umfasst eine erste und eine zweite Wärmekamera, die physikalisch mit einem Gestell verbunden sind, das am Kopf eines Benutzers getragen wird. Die erste Wärmekamera erfasst thermische Messwerte einer ersten interessierenden Region (Region of Interest, ROI), die zumindest einen Teil der rechten Seite der Stirn des Benutzers umfasst. Die zweite Wärmekamera erfasst thermische Messwerte einer zweiten ROI, die zumindest einen Teil der linken Seite der Stirn des Benutzers umfasst. Wobei die erste und die zweite Wärmekamera sich nicht in physikalischem Kontakt mit ihrer jeweiligen ROI befinden und die Wärmekameras aufgrund ihrer Verbindung mit dem Gestell auf ihre jeweilige ROI gerichtet bleiben, wenn der Kopf des Benutzers winkelförmige Bewegungen macht.

Description

  • TECHNISCHES GEBIET
  • Dieser Patentantrag betrifft am Kopf befestigte Wearable-Geräte (Head-Mounted-Devices), die Wärmekameras zur Erfassung thermischer Messwerte umfassen.
  • STAND DER TECHNIK
  • Viele physiologische Reaktionen manifestieren sich als Temperaturen (und Änderungen der Temperaturen), die an verschiedenen Regionen des menschlichen Gesichts gemessen werden. Zum Beispiel können die Gesichtstemperaturen hilfreich sein, um das Maß an Stress, dem eine Person ausgesetzt sein kann, oder den Grad der Konzentration der Person zu einem bestimmten Zeitpunkt zu bestimmen. In einem anderen Beispiel können die Gesichtstemperaturen hilfreich sein, um zu bestimmen, wie sich ein Benutzer fühlt, z. B. ob ein Benutzer nervös, ruhig oder glücklich ist.
  • Das Monitoring und die Analyse von Gesichtstemperaturen können somit nützlich für viele Applikationen in Bezug auf Gesundheit und Lebensprotokollierung sein. Üblicherweise kann die zeitliche Erfassung solcher Daten jedoch sehr schwierig sein, wenn die Personen ihren täglichen Aktivitäten nachgehen. Üblicherweise beinhaltet die Erfassung solcher Daten die Anwendung von Wärmekameras, die unhandlich und teuer sind und ständig auf das Gesicht einer Person gerichtet sein müssen. Aufgrund der Bewegungen der Personen bei ihren täglichen Aktivitäten müssen darüber hinaus verschiedene komplexe Bildanalyseverfahren (z. B. Gesichtstracking und -registrierung) zur Erfassung der erforderlichen Messwerte durchgeführt werden.
  • Demzufolge besteht eine Notwendigkeit für eine Methode, die die Erfassung von Messwerten der Gesichtstemperaturen und/oder Änderungen der Gesichtstemperaturen an verschiedenen Regionen des Gesichts einer Person ermöglicht. Vorzugsweise sollten die Messwerte über einen langen Zeitraum, während dem die Person verschiedene Alltagsaktivitäten durchführen kann, erfasst werden können.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Gemäß einer Ausführungsform umfasst ein System: eine erste und eine zweite Wärmekamera, die physikalisch mit einem Gestell verbunden sind, das dazu konfiguriert ist, am Kopf eines Benutzers getragen zu werden; die erste Wärmekamera ist dazu konfiguriert, thermische Messwerte einer ersten interessierenden Region (THROI1) zu erfassen, wobei die ROI1 zumindest einen Teil der rechten Seite der Stirn des Benutzers umfasst; und die zweite Wärmekamera ist dazu konfiguriert, thermische Messwerte einer zweiten interessierenden Region (THROI2) zu erfassen, wobei die ROI2 zumindest einen Teil der linken Seite der Stirn des Benutzers umfasst; wobei die erste und die zweite Wärmekamera sich nicht in physikalischem Kontakt mit ihrer jeweiligen interessierenden Region (Region of Interest, ROI) befinden, die Überschneidung zwischen der ROI1 und ROI2 kleiner als 80 % des kleinsten Bereichs aus der Menge der Bereiche von ROI1 und ROI2 ist und die Wärmekameras aufgrund ihrer Verbindung mit dem Gestell auf ihre jeweilige ROI gerichtet bleiben, wenn der Kopf des Benutzers winkelförmige Bewegungen macht.
  • Gemäß einer anderen Ausführungsform umfasst ein System: eine erste und eine zweite Wärmekamera, die physikalisch mit einem Gestell verbunden sind, das dazu konfiguriert ist, am Kopf eines Benutzers getragen zu werden; die erste Wärmekamera ist dazu konfiguriert, thermische Messwerte einer ersten interessierenden Region (THROI1) zu erfassen, wobei die ROI1 zumindest einen Teil des Stirnasts der rechten oberflächlichen Schläfenarterie des Benutzers umfasst; und die zweite Wärmekamera ist dazu konfiguriert, thermische Messwerte einer zweiten interessierenden Region (THROI2) zu erfassen, wobei die ROI2 zumindest einen Teil des Stirnasts der linken oberflächlichen Schläfenarterie des Benutzers umfasst; wobei die erste und die zweite Wärmekamera sich nicht in physikalischem Kontakt mit ihrer jeweiligen ROI befinden und die Wärmekameras aufgrund ihrer Verbindung mit dem Gestell auf ihre jeweilige ROI gerichtet bleiben, wenn der Kopf des Benutzers winkelförmige Bewegungen macht.
  • Gemäß einer weiteren Ausführungsform umfasst ein System: eine erste und eine zweite Wärmekamera, die physikalisch mit einem Gestell verbunden sind, das dazu konfiguriert ist, am Kopf eines Benutzers getragen zu werden; die erste Wärmekamera ist dazu konfiguriert, thermische Messwerte einer ersten interessierenden Region (THROI1) zu erfassen, wobei die ROI1 zumindest einen Teil der rechten oberflächlichen Schläfenarterie des Benutzers umfasst; und die zweite Wärmekamera ist dazu konfiguriert, thermische Messwerte einer zweiten interessierenden Region (THROI2) zu erfassen, wobei die ROI2 zumindest einen Teil der linken oberflächlichen Schläfenarterie des Benutzers umfasst; wobei die erste und die zweite Wärmekamera sich nicht in physikalischem Kontakt mit ihrer jeweiligen ROI befinden und die Wärmekameras aufgrund ihrer Verbindung mit dem Gestell auf ihre jeweilige ROI gerichtet bleiben, wenn der Kopf des Benutzers winkelförmige Bewegungen macht.
  • Gemäß noch einer weiteren Ausführungsform umfasst ein Wearable-System, das zur Erfassung thermischer Messwerte konfiguriert ist, die die Erkennung einer physiologischen Reaktion ermöglichen: ein Gestell, das dazu konfiguriert ist, am Kopf eines Benutzers getragen zu werden; eine erste und eine zweite Wärmekamera, die physikalisch mit dem Gestell an Stellen verbunden sind, die sich rechts und links von der das Gesicht des Benutzers in die rechte beziehungsweise linke Seite unterteilenden Symmetrieachse und weniger als 15 cm von der rechten beziehungsweise linken Pupille des Benutzers entfernt befinden; die erste Wärmekamera ist dazu konfiguriert, thermische Messwerte einer ersten interessierenden Region (THROI1) zu erfassen, wobei die ROI1 zumindest einen Teil der rechten Seite der Stirn des Benutzers umfasst; die zweite Wärmekamera ist dazu konfiguriert, thermische Messwerte einer zweiten interessierenden Region (THROI2) zu erfassen, wobei die ROI2 zumindest einen Teil der linken Seite der Stirn des Benutzers umfasst; eine dritte und vierte Wärmekamera, die physikalisch mit dem Gestell an Stellen verbunden sind, die sich rechts beziehungsweise links von der Symmetrieachse, weniger als 15 cm von der Oberlippe des Benutzers entfernt und unterhalb der ersten und zweiten Wärmekamera befinden; die dritte Wärmekamera ist dazu konfiguriert, thermische Messwerte einer dritten ROI zu erfassen (THROI3), wobei die ROI3 zumindest einen Teil der rechten Oberlippe des Benutzers umfasst; die vierte Wärmekamera ist dazu konfiguriert, thermische Messwerte einer vierten interessierenden Region (THROI4) zu erfassen, wobei die ROI4 zumindest einen Teil der linken Oberlippe des Benutzers umfasst; wobei sich die dritte und vierte Wärmekamera außerhalb der Ausatemströme des Mundes und der Nasenlöcher befinden, und wobei sich die Wärmekameras nicht in physikalischem Kontakt mit ihrer jeweiligen ROI befinden; und das System ist dazu konfiguriert, THROI1, THROI2, THROI3 und THROI4 an einen Prozessor weiterzuleiten, der dazu konfiguriert ist, die physiologische Reaktion zu erkennen.
  • Gemäß noch einer weiteren Ausführungsform umfasst ein System, das zur Erfassung von thermischen Messwerten und Messwerten sichtbaren Lichts des Gesichts eines Benutzers aus ortsfesten relativen Positionen konfiguriert ist: ein Gestell, das dazu konfiguriert ist, am Kopf des Benutzers getragen zu werden; eine erste Wärmekamera, eine zweite Wärmekamera und eine Kamera für sichtbares Licht, die physikalisch mit dem Gestell verbunden sind; die erste Wärmekamera ist dazu konfiguriert, thermische Messwerte einer ersten interessierenden Region (THROI) zu erfassen, wobei die ROI1 zumindest einen Teil des Bereichs um die Augen des Benutzers umfasst; die zweite Wärmekamera ist dazu konfiguriert, thermische Messwerte einer zweiten interessierenden Region (THROI2) zu erfassen, wobei die ROI2 zumindest einen Teil der Oberlippe des Benutzers umfasst; und die Kamera für sichtbares Licht ist dazu konfiguriert, Bilder einer dritten interessierenden Region zu erfassen (IMROI3), wobei die ROI3 zumindest einen Teil des Gesichts des Benutzers umfasst; wobei die Wärmekameras und die Kamera für sichtbares Licht eine ortsfeste Positionierung relativ zueinander und relativ zu ihrer jeweiligen ROI beibehalten, wenn der Kopf des Benutzers winkelförmige Bewegungen macht.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Die Ausführungsformen werden hierin lediglich beispielshalber mit Bezug auf die beiliegenden Zeichnungen beschrieben. Es wird nicht versucht, die baulichen Einzelheiten der Ausführungsformen detaillierter darzustellen, als es für ein grundlegendes Verständnis der Ausführungsformen notwendig ist. In den Zeichnungen zeigen:
  • 1, 2 und 3 verschiedene Arten von Head-Mounted-Systemen (HMS) mit daran befindlichen Kameras, wobei die gestrichelten Linien die Sichtfelder der Kameras angeben. Die Kameras können Wärmekameras und/oder Kameras für sichtbares Licht sein;
  • 4, 5 und 6 verschiedene potenzielle Stellen, an denen die Wärmekameras so mit verschiedenen Gestellen eines Head-Mounted-Displays verbunden werden können, dass zumindest ein Teil der periorbitalen interessierenden Region (Region of Interest, ROI) im Sichtfeld einer oder mehrerer der Wärmekameras ist. Da sich die Wärmekamera in der Nähe der ROI befindet, kann sie klein und leicht sein und an vielen potenziellen Stellen in Sichtlinie zu der ROI positioniert werden;
  • 7 die Periorbitalregion 300 und die wärmsten Regionen (301 und 302) in der Periorbitalregion;
  • 8 eine schematische Darstellung eines Computers 400, der in der Lage ist, eine oder mehrere der hierin erörterten Ausführungsformen auszuführen; und
  • 9, 10, 11 und 12 verschiedene Arten von Head-Mounted-Systemen mit daran befindlichen Kameras, wobei die gestrichelten Kreise und Ellipsen die interessierenden Regionen der Kameras darstellen. Die Kameras können Wärmekameras und/oder Kameras für sichtbares Licht sein.
  • DETAILLIERTE BESCHREIBUNG
  • Gemäß der Verwendungsweise hierin bezieht sich der Begriff „Wärmekamera” auf ein berührungsloses Gerät, das einen Wärmesensor umfasst, der sich für die Messung von Wellenlängen von mehr als 2500 nm eignet. Der Wärmesensor kann zur Messung der spektralen Abstrahlcharakteristiken eines schwarzen Körpers bei der Körpertemperatur des Benutzers (ca. 310 K) gemäß dem planckschen Strahlungsgesetz verwendet werden. Obgleich die Wärmekamera auch Wellenlängen unter 2500 nm messen kann, wird eine Kamera, die nahes Infrarot (wie beispielsweise 700–1200 nm) misst und sich nicht zur Messung von Wellenlängen von mehr als 2500 nm eignet, hierin als Nahinfrarotkamera bezeichnet, und gilt diese Kamera hierin nicht als eine Wärmekamera, da sie üblicherweise nicht zur effektiven Messung der Temperaturen eines schwarzen Körpers bei ca. 310 K verwendet werden kann. Eine Wärmekamera kann einen oder mehrere Sensoren enthalten, wobei jeder Sensor ein oder mehrere Sensorelemente (auch als Pixel bezeichnet) enthalten kann. Zum Beispiel kann eine Wärmekamera nur ein Sensorelement (d. h. ein Pixel, wie beispielsweise einen Thermosäulensensor oder einen pyroelektrischen Sensor) oder eine Matrix mit Tausenden oder sogar Millionen von Pixeln (wie beispielsweise einen Vektor oder eine Matrix von ungekühlten Bolometersensorelementen) enthalten. Wenn ein Temperaturerfassungsgerät eine Optik für seinen Betrieb nutzt, dann kann sich der Begriff „Wärmekamera” auf die Optik (z. B. eine oder mehrere Linsen) beziehen. Wenn ein Temperaturerfassungsgerät einen optischen Begrenzer umfasst, der den Blickwinkel einschränkt (wie beispielsweise in einer Lochkamera oder ein Thermosäulensensor innerhalb eines standardmäßigen TO-5-, TO-18- oder TO-39-Gehäuses mit einem Fenster oder ein Thermosäulensensor mit einem Feldbegrenzer aus poliertem Metall), dann kann sich der Begriff „Wärmekamera” auf den optischen Begrenzer beziehen. Ein „optischer Begrenzer” kann hierin auch als ein „Feldbegrenzer” oder als ein „Sichtfeldbegrenzer” bezeichnet werden. Optional kann der Feldbegrenzer aus einem Material mit geringem Emissionsgrad und einer geringen thermischen Masse, wie etwa Neusilber- und/oder Aluminiumfolie, bestehen.
  • Der Begriff „Wärmekamera” kann sich zudem auf eine an den Wärmesensor angrenzende Ausleseschaltung beziehen und des Weiteren das den Wärmesensor enthaltende Gehäuse umfassen.
  • Der Begriff „thermische Messwerte einer interessierenden Region (ROI)” (in der Regel als THROI bezeichnet) kann sich auf mindestens einen der folgenden Messwerte beziehen: (i) „Temperaturmesswerte einer ROI” (üblicherweise als TROI bezeichnet), die zum Beispiel mit einem Thermosäulensensor oder einem Bolometersensor erfasst werden, die die Temperatur an der ROI messen, und (ii) „Temperaturdifferenzmesswerte einer ROI” (üblicherweise als ∆TROI bezeichnet), die zum Beispiel mit einem pyroelektrischen Sensor erfasst werden, der die Temperaturänderung an der ROI misst, oder die durch eine Beobachtung der Änderung der zu unterschiedlichen Zeitpunkten durch einen Thermosäulensensor oder einen Bolometersensor erfassten Messwerte bestimmt werden.
  • Sätze wie „die Wärmekamera berührt die ROI nicht” weisen ausdrücklich darauf hin, dass die Wärmekamera keinen Kontakt mit der Haut des Benutzers hat, was bedeutet, dass in einem normalen Betriebszustand ein Abstand von mindestens 1 mm zwischen der Wärmekamera (einschließlich ihrer Optik und ihrem Gehäuse) und der Haut des Benutzers bestehen sollte.
  • Der Begriff „Schaltung” ist hierin als ein elektronisches Gerät definiert, das analog und/oder digital sein kann, wie beispielsweise eines oder mehrere der folgenden elektronischen Geräte: ein Verstärker, ein Differenzverstärker, ein Filter, eine analoge und/oder digitale Logik, ein Prozessor, ein Controller, ein Computer, eine ASIC und ein FPGA.
  • Bekannte Systeme für die Analyse von Gesichtssignalen auf der Grundlage von Temperaturmesswerten erhalten Reihen von Wärmebildern, die sich aus Pixeln zusammensetzen, welche Messwerte der Temperatur (T) darstellen. Die Messung der Temperatur ist erforderlich, um einen Tracker laufen zu lassen und eine Bilderfassung durchzuführen, welche die Bewegungen des Benutzers in Bezug auf die Wärmekamera ausgleichen und die Bilder in eine präzise Ausrichtung für eine Analyse und einen Vergleich bringen.
  • In einer Ausführungsform ist eine Wärmekamera (auch als ein Wärmesensor bezeichnet) mit einem Gestell verbunden, das am Kopf eines Benutzers getragen wird. In dieser Konfiguration bewegt sich die Wärmekamera mit dem Kopf des Benutzers, wenn der Kopf seine Position und Orientierung im Raum ändert, und kann somit ein Tracker und/oder eine Bilderfassung nicht notwendig sein. Dadurch ist es möglich, die Bildverarbeitungs- und/oder Signalverarbeitungsalgorithmen in Bezug auf die Reihe der durch jedes Wärmesensorelement gemessenen Temperaturdifferenzen (∆T) auszuführen. Die Ausführung der Bildverarbeitungs-/Signalverarbeitungsalgorithmen in Bezug auf die gemessenen ∆T erhöht die Genauigkeit des Systems signifikant im Vergleich zu dem Fall, in dem ∆T aus Bildern/Signalen abgeleitet wird, die Temperaturmesswerte (T) darstellen.
  • Optional wird die zeitliche Temperaturänderung an der ROI (∆TROI) in Bezug auf einen anderen Parameter (wie beispielsweise der Reiz, gegenüber dem der Benutzer exponiert ist) und/oder andere physiologische Messwerte (wie beispielsweise EEG, Hautleitfähigkeit, Puls, Atemfrequenz und/oder Blutdruck) analysiert.
  • Beispiele für Thermosäulensensoren, die für zumindest einige der hierin beschriebenen Ausführungsformen nützlich sein können, umfassen Texas Instruments „TMP006B Infrared Thermopile Sensor in Chip-Scale Package”, Melexis „MLX90614 Family Single and Dual Zone Infra-Red Thermometer in TO-39”, HL-Planartechnik GmbH „TS118-3 Thermopile Sensor”, Dexter Research Center, Inc. „DX-0875 Detector”, Dexter Research Center, Inc. „Temperature Sensor Module (TSM) with ST60 Thermopile and Onboard ASIC for Amplification, Digitizing, Temperature Compensation and Calibration”. Wenn vorausgesetzt wird, dass der Sensor dauernd denselben Bereich auf dem Objekt misst, können diese Beispiele der Thermosäulensensoren Messwerte von ∆T liefern, wobei der Messfehler von ∆T häufig viel kleiner als der Messfehler von T ist. Wenn die Wärmekamera somit auch bei winkelförmigen Bewegungen des Kopfes des Benutzers auf die ROI gerichtet bleibt, ermöglicht dies, dass zumindest einige der Ausführungsformen den genaueren ∆T-Messwert zum Erkennen feiner Signale verwenden können, die anhand einer Bildverarbeitung von Temperaturmesswerten (T), die von einer Kamera erhalten werden, die nicht kontinuierlich auf die ROI gerichtet ist, nicht erkannt werden können (vorausgesetzt, dass in beiden Szenarien Sensoren mit gleichen Eigenschaften verwendet werden). In einigen Ausführungsformen können die Leistungen eines Thermosäulen- und/oder Bolometersensors durch Anwendung von Verfahren, wie beispielsweise der im US-Patent Nummer 6129673 beschriebenen Verfahren, verbessert werden.
  • In einigen Ausführungsformen umfasst eine Wärmekamera einen Thermosäulensensor, der dazu konfiguriert ist, Temperaturmesswerte in einer Frequenz unterhalb mindestens einer der folgenden Frequenzen zu liefern: 15 Hz, 10 Hz, 5 Hz und 1 Hz.
  • In einigen Ausführungsformen wird das Sichtfeld der Wärmekamera durch einen Feldbegrenzer begrenzt. Zum Beispiel kann die Wärmekamera auf einer Texas-Instruments-TMP006B-IR-Thermosäule, die einen Feldbegrenzer aus dünnem poliertem Metall verwendet, oder auf Melexis-MLX90614-IR-Thermometern in einem TO-39-Gehäuse basieren. Es ist zu beachten, dass das Gewicht der TMP006B- oder MLX90614-basierten Wärmekameras jeweils unter 2 g liegt.
  • Für ein besseres Verständnis einiger der offengelegten Ausführungsformen und nicht etwa, weil die folgende theoretische Erörterung für die Herstellung und/oder Anwendung der offengelegten Ausführungsformen notwendig ist, erklärt die folgende nicht ausschließliche theoretische Erörterung, warum die Genauigkeit der Messwerte der Temperaturänderung eines Objekts (∆T) im Fall von Temperatur messenden Sensoren, wie beispielsweise Thermosäulen, erwartungsgemäß häufig besser als die Genauigkeit der Messwerte der Temperatur des Objekts (T) ist. Wenn die folgende theoretische Erörterung inkorrekt ist, dann sollte sie außer Betracht gelassen werden und den Umfang der offengelegten Ausführungsformen in keiner Weise einschränken.
  • Ein Problem im Zusammenhang mit Thermometern besteht darin, dass die Objekttemperatur schwer messbar ist. Der exakte Output eines Sensors für die Temperatur eines bestimmten Objekts hängt von den Eigenschaften jedes einzelnen Sensorpixels ab, wobei jedes Sensorpixel desselben Sensormodells seinen spezifischen Nullpunkt, spezifische nichtlineare Koeffizienten und spezifische elektrische Eigenschaften haben kann. Wenn es sich jedoch um eine sehr geringe Änderung der Objekttemperatur handelt, wie beispielsweise von 35,7 °C zu 35,9 °C, dann hat der Nullpunkt bei der Messung der Differenz zwischen zwei Messwerten eine geringe Auswirkung und sind die nichtlinearen Effekte gering, da die Differenz selbst gering ist. Obgleich zum Beispiel die Gleichförmigkeit verschiedener Texas-Instruments-TMP006B-Infrarot-Thermosäulensensoren üblicherweise nicht gut ist, ist die Reaktion jedes einzelnen Sensors ziemlich linear und stabil, was bedeutet, dass mit einer richtigen Kalibrierung und Filterung eine Präzision der Temperaturdifferenz von 0,1 °C oder sogar besser erreicht werden kann.
  • Die Genauigkeit einer Matrix von Sensorpixeln wird in Bezug auf die Temperaturgenauigkeit angegeben. Zum Beispiel bedeutet eine Genauigkeit von 0,2 °C, dass jedes Pixel in der Matrix dieselbe ±0,2-Grad-Celsius-Temperatur für ein bestimmtes Objekt liefern wird. Wenn jedoch der aktuelle Messwert eines bestimmten Pixels mit seinen vorangegangenen Messwerten verglichen wird (im Gegensatz zu dem Fall, in dem der aktuelle Messwert des bestimmten Pixels mit den vorangegangenen Messwerten anderer Pixel verglichen wird), dann hat die Variabilität zwischen den Pixeln im Wesentlichen keinen Einfluss auf die Genauigkeit der von dem bestimmten Pixel erhaltenen ∆T. Beispielsweise ist die Abweichung in der Array-Gleichförmigkeit des von Sofradir-EC hergestellten Wärmebildsensors Micro80P < 1,5 %; diese hohe Array-Gleichförmigkeit kann die Genauigkeit einer von einem bestimmten Pixel erhaltenen ∆T in dem besonderen Fall, in dem das bestimmte Pixel auch dann auf die ROI gerichtet bleibt, wenn der Kopf des Benutzers winkelförmige Bewegungen macht, nicht beeinträchtigen.
  • Die spezifische Detektivität, als D* bezeichnet, von Bolometern und Thermosäulen hängt von der Frequenz der Bereitstellung der Temperaturmesswerte ab. In einigen Ausführungsformen besteht für ein Tracking und/oder eine Bilderfassung im Grunde keine Notwendigkeit und ist es somit möglich, die Thermosäule zur Bereitstellung von Temperaturmesswerten in Frequenzen wie beispielsweise 15 Hz, 10 Hz, 5 Hz und sogar 1Hz oder niedriger zu konfigurieren. Wie zum Beispiel in der Veröffentlichung „Dillner, U., Kessler, E., & Meyer, H. G. (2013), Figures of merit of thermoelectric and bolometric thermal radiation sensors, J. Sens. Sens. Syst, 2, 85–94” dargestellt, kann eine Thermosäule mit einer Reaktionszeit von ca. 5–10 Hz dasselbe Maß an Detektivität wie ein Bolometer erbringen. In einigen Fällen kann der Betrieb bei niedrigen Frequenzen Vorteile bieten, die nicht erreicht werden können, wenn eine Notwendigkeit zur Anwendung einer Bilderfassung und eines Trackers besteht, wodurch eine Minderung des Preises der niederfrequenten Sensoren, die angewendet werden können, möglich ist.
  • In einigen Ausführungsformen von Thermosäulen gibt es viele Thermoelemente, wobei eine Seite eines jeden Elements (Paars) thermisch mit einer Messmembran verbunden ist, während eine andere Seite mit dem Hauptteil des Thermometers verbunden ist. In jedem Thermoelement wird gemäß dem Seebeck-Effekt eine Spannung erzeugt, die von der Temperaturdifferenz abhängt. Wenn diese Thermoelemente in Reihe geschaltet sind, wird der Effekt um die Anzahl der beteiligten Thermoelemente vervielfacht. Für jedes Thermoelement wird die erzeugte Spannung durch die Seebeck-Formel (dV = S·dT) definiert, wobei dV die erzeugte Spannungsdifferenz, dT die Temperaturdifferenz und S ein Seebeck-Koeffizient ist, welcher ein materialabhängiger Koeffizient ist (zum Beispiel 0,5 mV/K). Da eine präzise Messung der Spannung von mehreren Mikrovolt erreichbar ist, kann diese Methode die Detektion von ∆T mit einer Auflösung von 0,01 K oder weniger ermöglichen. Da ein Thermoelement allerdings die Differenz zwischen zwei Enden und nicht die Objekttemperatur erkennt, ist es erforderlich, dass die Temperatur des Hauptteils des Thermometers mit hoher Genauigkeit bekannt ist; anderenfalls nimmt die Genauigkeit ab. Weitere Informationen über den Seebeck-Effekt und mikrobearbeitete Thermosäulen finden sich in der Veröffentlichung „Graf, A., Arndt, M., & Gerlach, G. (2007), Seebeck’s effect in micromachined thermopiles for infrared detection. A review, Proc. Estonian Acad. Sci. Eng, 13(4), 338–353”.
  • In einigen Ausführungsformen von Bolometern ist die Messmembran mit einem Material verbunden, das seinen Widerstand wie folgt signifikant ändert, wenn die Temperatur geändert wird: R = R0(1 + a·dT), wobei R der Widerstand bei einer gegebenen Temperatur ist und R0 und a materialabhängige Parameter sind. In einem Beispiel von Vanadiumpentoxid hängt die Empfindlichkeit in hohem Maße von der Technologie der Schichtherstellung ab und kann die Widerstandsänderung sogar 4 % pro Kelvin betragen, wobei 2 % ein typischer Wert sein kann. Da der Widerstandswert von der Temperatur abhängt, sind die Messwerte theoretisch unabhängig von der Temperatur des Hauptteils des Thermometers. In der Praxis kann es jedoch einen Wärmestrom zwischen der Messmembran und dem Hauptteil geben, was der maximalen Temperaturdifferenz eine praktische Grenze auferlegt. Darüber hinaus kann die maximale Temperaturdifferenz in sowohl positiven als auch negativen Richtungen nicht gleich sein, wobei größere Differenzen eine Erhöhung des Messfehlers verursachen.
  • Sowohl Bolometer als auch Thermosäulen funktionieren besser, wenn die Objekttemperatur sich in der Nähe der Detektortemperatur befindet. Die Konstanthaltung der Temperatur des Detektors ist hilfreich, um kleine Differenzen der Objekttemperatur präzise zu detektieren; in einer Ausführungsform werden die Detektoren folglich auf eine Platte platziert, die aus einem Metall mit einer hohen Wärmeleitfähigkeit, wie beispielsweise Aluminium oder Kupfer, besteht und optional Peltier-Elemente und mehrere hochpräzise Kontaktthermometer zur Temperaturregelung hat.
  • Die Anwendung mehrerer Detektoren anstelle eines einzelnen Detektors kann das Signalrauschen verringern und die Stabilität erhöhen. Wenn die Messelektronik eines bestimmten Sensors eine langzeitige Messwertdrift hat (die durch die On-Chip-Schaltung hinzugefügt werden kann), dann kann die Anwendung mehrerer Sensoren eine praktische Methode zum Entfernen der Drift sein, wie beispielsweise in einer kleinen temperaturstabilisierten Plattform mit mehreren Sensoren.
  • Die Möglichkeit zur Konstanthaltung der Temperatur des Sensors ist häufig eine Einschränkung, wenn es um die Detektion von Differenzen der Temperatur eines Objekts geht. Zumindest mit mehreren relativ kostengünstigen, handelsüblichen Sensoren wird die Temperatur mit Schritten von 0,01–0,02 °C gemessen, was bedeutet, dass sogar ein einziger Sensor in der Lage sein kann, eine ∆T von 0,04 °C oder weniger zu detektieren. Für Thermosäulensensoren ist das detektierte Signal jedoch die Differenz zwischen der Objekttemperatur und der Temperatur des Thermometergehäuses, sodass die Gehäusetemperatur mit der richtigen Genauigkeit gemessen werden muss. In einem Beispiel können solche hochpräzisen Messwerte unter Anwendung einer hochwertigen Temperaturstabilisierung der Bodenplatte des Thermometers erhalten werden, was mehrere hochpräzise Kontaktthermometer und Peltier-Elemente zur Kontrolle der Temperatur erforderlich machen kann. In einem anderen Beispiel verwendet die Wärmekamera Bolometer, die nicht so empfindlich gegenüber der Gehäusetemperatur sind und, solange die Umgebung mit Änderungen von nicht mehr als ±3 °C konstant gehalten wird, einen Betrieb bei Raumtemperatur ermöglichen.
  • Beispiele von pyroelektrischen Sensoren, die sich für mindestens einige der hierin beschriebenen Ausführungsformen eignen, umfassen: (i) Excelitas Technologies Analog Pyroelectric Non-Contact Sensor Series mit einem, zwei, vier oder mehr Elementen; (ii) Excelitas Technologies DigiPyro® Digital Pyroelectric Non-Contact Sensor Series mit zwei, vier oder mehr Elementen und (ii) Murata Manufacturing Co., Ltd. Dual Type Pyroelectric Infrared Sensor Series oder Parallel Quad Type Pyroelectric Infrared Sensor Series.
  • In einigen Ausführungsformen bleibt eine Wärmekamera auf Grund ihrer physikalischen Verbindung mit dem Gestell auf die ROI gerichtet, wenn der Kopf des Benutzers winkelförmige Bewegungen macht. Es ist darauf hinzuweisen, dass Sätze wie „die Wärmekamera ist physikalisch mit dem Gestell verbunden” sich sowohl auf eine direkte physikalische Verbindung mit dem Gestell (d. h. die Wärmekamera ist an dem Gestell befestigt / in das Gestell integriert ist) als auch auf eine indirekte physikalische Verbindung mit dem Gestell (d. h. die Wärmekamera ist an einem Element befestigt / in ein Element integriert ist, das physikalisch mit dem Gestell verbunden ist) beziehen. Sowohl in den Ausführungsformen mit direkter physikalischer Verbindung als auch in den Ausführungsformen mit indirekter physikalischer Verbindung bleibt die Wärmekamera auf die ROI gerichtet, wenn der Kopf des Benutzers winkelförmige Bewegungen macht. In einigen Beispielen ist die Geschwindigkeit der in Sätzen wie „wenn der Kopf des Benutzers winkelförmige Bewegungen macht” bezeichneten winkelförmigen Bewegung größer als 0,02 rad/s, 0,1 rad/s oder 0,4 rad/s. Des Weiteren bedeuten Sätze wie „die Wärmekamera ... befindet sich nicht in physikalischem Kontakt mit der ROI”, dass die Wärmekamera einen berührungslosen Sensor verwendet, der ungleich einem Thermistor, der zur Messung der ROI in physikalischem Kontakt mit der ROI sein muss, die ROI nicht direkt berührt.
  • In einigen Ausführungsformen kann eine Wärmekamera einen ungekühlten Wärmesensor umfassen. Ein ungekühlter Wärmesensor bezeichnet hierin einen Sensor, der sich zur Messung von Wellenlängen größer als 2500 nm eignet und der: (i) bei Umgebungstemperatur arbeitet oder (ii) bei einer Temperatur stabilisiert wird, die nicht mehr als ±20 °C von der Umgebungstemperatur abweicht. Optional verwendet die Wärmekamera für ihren Betrieb einen Thermosäulensensor. Die Literaturquelle „Pezzotti, G., Coppa, P., & Liberati, F. (2006), Pyrometer at low radiation for measuring the forehead skin temperature, Revista Facultad de Ingeniería Universidad de Antioquia, (38), 128–135” beschreibt ein Beispiel für eine Messung der Temperatur der Stirn mit einem Thermosäulensensor, der eine Genauigkeit von besser als 0,2 °C liefert, keinen physikalischen Kontakt mit der Stirn erfordert und mit einem Arbeitsabstand zwischen 350 und 400 mm arbeitet. In diesem Beispiel umfasst die Optik einen einzelnen asphärischen Spiegel, der erforderlich oder nicht erforderlich sein kann, wenn die Wärmekamera sich nur ein paar Zentimeter von der ROI entfernt befindet.
  • In einigen Ausführungsformen verwendet eine Wärmekamera für ihren Betrieb mindestens einen der folgenden ungekühlten Wärmesensoren: einen Bolometersensor, einen pyroelektrischen Sensor und einen ferroelektrischen Sensor. In anderen Ausführungsformen umfasst eine Wärmekamera einen gekühlten Wärmesensor.
  • Die Wärmekameras können für verschiedene Zwecke an bestimmten Stellen positioniert werden, z. B. um Messwerte einer bestimmten interessierenden Region (ROI) erfassen zu können. Um nützliche Messwerte zu liefern, kann eine Wärmekamera optional von einer bestimmten Region entfernt platziert werden, wie beispielsweise außerhalb der Ausatemströme des Mundes und der Nasenlöcher. Sätze wie „außerhalb der Ausatemströme des Mundes und der Nasenlöcher platziert” bedeuten hierin „außerhalb des überwiegenden Teils des normalerweise erwarteten Ausatemstroms des Mundes platziert” und „außerhalb des überwiegenden Teils der normalerweise erwarteten Ausatemströme der Nasenlöcher platziert”. Die normalerweise erwarteten Ausatemströme werden gemäß einem normalen Menschen bestimmt, der normal atmet und dabei ein entspanntes (neutrales) Gesicht hat und dessen Hals-, Unterkiefer- und Gesichtsmuskeln weder gedehnt noch kontrahiert sind. Zum Beispiel gilt eine Wärmekamera als außerhalb der Ausatemströme der Nasenlöcher platziert, wenn sie sich rechts vom rechten Nasenloch und/oder links vom linken Nasenloch und/oder außerhalb eines dreidimensionalen Rechtecks befindet, das sich von unterhalb der Nasenspitze bis zum unteren Teil des Kinns erstreckt und eine Grundfläche von mindestens 4 × 4 cm aufweist. In einem anderen Beispiel gilt eine Wärmekamera als außerhalb des Ausatemstroms des Mundes platziert, wenn sie sich außerhalb eines horizontalen Zylinders mit einer Höhe von 10–20 cm und einem Durchmesser von 4–10 cm befindet, wobei die Oberseite des Zylinders die Unterseite der Nase berührt.
  • Im Falle einer Wärmekamera, die auf einem Wärmesensor wie beispielsweise auf einer Thermosäule basiert, können die Vergleichsstellen der Thermosäule die Veränderungen der Temperatur der ROI ausgleichen. Wenn die Vergleichsstellentemperatur festgelegt ist, zum Beispiel indem die Vergleichsstellen über einem Kühlkörper platziert und/oder isoliert werden, dann können die Ausatemströme aus den Nasenlöchern und/oder aus dem Mund die Temperaturdifferenz zwischen der ROI und den Messstellen nicht beeinflussen. Wenn die Vergleichsstellentemperatur jedoch nicht festgelegt ist, dann kann der über den Sensor passierende Atem den Messwert der Thermosäule allein dadurch ändern, dass die Temperatur des Ausatemstroms nahe der Körpertemperatur ist. Wenn beispielsweise die Thermosäule Raumtemperatur hat und die Temperatur der Vergleichsstellen im Wesentlichen festgelegt ist, dann würde die Thermosäule eine Spannung registrieren, die proportional zu einer Änderung der Temperatur zwischen der ROI und der Raumtemperatur ist. Wenn die Messstellen jedoch dem Ausatemstrom ausgesetzt sind, dann kann die Thermosäule eine falsche Temperatur der ROI messen. Um einen solchen Fehler zu vermeiden, wird eine nicht gut isolierte Wärmekamera in einer Ausführungsform außerhalb der Ausatemströme platziert, was bedeutet, dass die Wärmekamera nicht vor die Nasenlöcher und/oder vor den Mund, sondern seitlich, darüber, darunter und/oder an einer anderen möglichen, von den Nasenlöchern und dem Mund entfernten Stelle platziert wird. In einigen Ausführungsformen kann sich eine zusätzliche Wärmekamera in den Ausatemströmen des Mundes und/oder der Nasenlöcher befinden.
  • In einem Beispiel wird „ein Gestell, das dazu konfiguriert ist, am Kopf des Benutzers getragen zu werden” als ein Gestell interpretiert, das den Kopf des Benutzers mit mehr als 50 % seines Gewichts belastet. Zum Beispiel umfasst das Gestell in Oculus Rift und HTC Vive den Schaumstoff, der am Gesicht des Benutzers platziert wird, und die Riemen; das Gestell in Microsoft HoloLens umfasst das Einstellrad im Kopfbügel, der am Kopf des Benutzers platziert wird. In einem anderen Beispiel kann „ein Gestell, das dazu konfiguriert ist, am Kopf des Benutzers getragen zu werden”, einem Brillengestell ähnlich sein, das Korrekturgläser- und/oder UV-Schutzgläser enthält.
  • In einem Beispiel werden weite winkelförmige Bewegungen als winkelförmige Bewegungen von mehr als 45 Grad interpretiert. In einem Beispiel ändern sich die Positionen der ersten und zweiten Kameras relativ zum Kopf des Benutzers auch dann nicht, wenn der Kopf des Benutzers weite winkelförmige und seitliche Bewegungen macht, wobei weite winkelförmige und seitliche Bewegungen als winkelförmige Bewegungen von mehr als 60 Grad und als seitliche Bewegungen von mehr als 1 Meter interpretiert werden.
  • In einem Beispiel ähnelt das Gestell Brillen mit sich erstreckenden Seitenbügeln (d. h. mit Brillenbügeln). Das Gestell kann sich zum Befestigen des Head-Mounted-Systems (HMS) an einem Benutzer bis hinter die Ohren des Benutzers erstrecken. Darüber hinaus kann das Gestell sich um einen hinteren Teil des Kopfes des Benutzers erstrecken und so das HMS an dem Benutzer befestigen. Zusätzlich oder alternativ kann das Gestell mit einer am Kopf montierbaren Helmstruktur verbunden oder im Inneren einer am Kopf montierbaren Helmstruktur angebracht sein.
  • Die Stellen der Kameras in den Zeichnungen dienen nur zur Veranschaulichung. Die Kameras können an anderen Stellen an dem HMS platziert werden. Eine oder mehrere der Kameras für sichtbares Licht können dazu konfiguriert sein, Bilder mit verschiedenen Auflösungen oder mit verschiedenen Bildfrequenzen zu erfassen. Viele Videokameras mit einem kleinen Formfaktor, wie beispielsweise in Handys oder Webcams verwendete Videokameras, können in einigen der Ausführungsformen enthalten sein.
  • Weiterhin repräsentieren die Darstellungen und Erörterungen einer Kamera eine oder mehrere Kameras, wobei jede Kamera dazu konfiguriert sein kann, dasselbe Sichtfeld und/oder verschiedene Sichtfelder zu erfassen (d. h. sie können im Wesentlichen dasselbe Sichtfeld oder unterschiedliche Sichtfelder haben). In einer Ausführungsform kann/können eine oder mehrere der Kameras ein oder mehrere Elemente, wie beispielsweise ein Gyroskop, einen Beschleunigungssensor und/oder einen Näherungssensor, umfassen. Es können weitere Sensorgeräte in der Kamera und/oder zusätzlich zu der Kamera enthalten sein, und es können andere Sensorfunktionen durch eine oder mehrere der Kameras durchgeführt werden.
  • Da die Gesichtsstrukturen von Benutzer zu Benutzer unterschiedlich sein können, kann das HMS in einer Ausführungsform die Richtung, Position, Algorithmen und/oder Eigenschaften einer oder mehrerer der Kameras und/oder Lichtquellen auf der Grundlage der Gesichtsstruktur des Benutzers kalibrieren. In einem Beispiel kalibriert das HMS die Positionierung einer Kamera in Bezug auf ein bestimmtes Merkmal auf dem Gesicht des Benutzers. In einem anderen Beispiel ändert das HMS die Positionierung einer Kamera in Bezug auf das Gestell mechanisch und/oder optisch, um sich an eine bestimmte Gesichtsstruktur anzupassen.
  • Verschiedene in dieser Offenlegung beschriebene Systeme können ein Display umfassen, das mit einem Gestell verbunden ist, das am Kopf eines Benutzers getragen wird, z. B. ein Gestell eines Head-Mounted Systems (HMS). In einigen Ausführungsformen ist das mit dem Gestell verbundene Display dazu konfiguriert, dem Benutzer einen digitalen Inhalt zu zeigen. Sätze in Form von „ein mit dem Gestell verbundenes Display” sind im Kontext einer oder mehrerer der folgenden Konfigurationen zu interpretieren: (i) ein Gestell, das zusammen mit dem Display getragen und/oder abgenommen wird, sodass der Benutzer auch das Display trägt/abnimmt, wenn er/sie das HMS trägt/abnimmt, (ii) ein in das Gestell integriertes Display; optional wird das Display zusammen mit dem HMS verkauft, und/oder (iii) das HMS und das Display teilen sich mindestens ein elektronisches Element wie beispielsweise eine Schaltung, einen Prozessor, einen Speicher, eine Batterie, ein optisches Element und/oder eine Kommunikationseinheit zur Kommunikation mit einem nicht am Kopf befestigten Computer.
  • Ein Display kann hierin ein jedwedes Gerät sein, das einem Benutzer visuelle Bilder bereitstellt (z. B. Text, Bilder und/oder Video). Die durch das Display bereitgestellten Bilder können zweidimensionale oder dreidimensionale Bilder sein. Einige nicht ausschließliche Beispiele für Displays, die in den in dieser Offenlegung beschriebenen Ausführungsformen verwendet werden können, umfassen: (i) Bildschirme und/oder Videodisplays verschiedener Geräte (z. B. Fernseher, Computermonitore, Tablets, Smartphones oder Smartwatches), (ii) an einem Headset oder Helm befestigte Displays wie beispielsweise Augmented-Reality-Systeme (z. B. HoloLens), Virtual-Reality-Systeme (z. B. Oculus Rift, Vive oder Samsung GearVR) und Mixed-Reality-Systeme (z. B. Magic Leap) und (iii) Bildprojektionssysteme, die Bilder auf die Netzhaut eines Benutzers projizieren wie beispielsweise virtuelle Netzhautanzeigen (Virtual-Retinal-Displays, VRD), die Bilder erzeugen, indem sie energiearmes Laserlicht direkt auf die Netzhaut scannen.
  • In einer Ausführungsform ist ein Helm mit dem Gestell verbunden und dazu konfiguriert, die Kopfhaut des Benutzers zu schützen; wobei der Helm aus der Gruppe folgender Helme ausgewählt wird: ein Sporthelm, ein Motorradhelm, ein Fahrradhelm und ein Gefechtshelm. Ausdrücke in Form von „ein mit dem Gestell verbundener Helm” sind im Kontext einer oder mehrerer der folgenden Konfigurationen zu interpretieren: (i) ein Gestell, das zusammen mit dem Helm getragen und/oder abgenommen wird, sodass der Benutzer auch das HMS trägt/abnimmt, wenn er/sie den Helm trägt/abnimmt, (ii) ein in den Helm integriertes Gestell, und/oder der Helm selbst bildet das Gestell; optional wird das HMS zusammen mit dem Helm verkauft, und/oder (iii) das HMS und das Display teilen sich mindestens ein elektronisches Element wie beispielsweise einen inertialen Messsensor, eine Schaltung, einen Prozessor, einen Speicher, eine Batterie, einen Bildsensor und/oder eine Kommunikationseinheit zur Kommunikation mit einem nicht am Kopf befestigten Computer.
  • In einer Ausführungsform ist ein Gehirnwellen-Headset mit dem Gestell verbunden und dazu konfiguriert, Gehirnwellensignale des Benutzers zu erfassen. Ausdrücke in Form von „ein mit dem Gestell verbundenes Gehirnwellen-Headset” sind im Kontext einer oder mehrerer der folgenden Konfigurationen zu interpretieren: (i) ein Gestell, das zusammen mit dem Gehirnwellen-Headset getragen und/oder abgenommen wird, sodass der Benutzer auch das HMS trägt/abnimmt, wenn er/sie das Gehirnwellen-Headset trägt/abnimmt, (ii) ein in das Gehirnwellen-Headset integriertes Gestell, und/oder das Gehirnwellen-Headset selbst bildet das Gestell; optional wird das HMS zusammen mit dem Gehirnwellen-Headset verkauft, und/oder (iii) das HMS und das Gehirnwellen-Headset teilen sich mindestens ein elektronisches Element wie beispielsweise einen inertialen Messsensor, eine Schaltung, einen Prozessor, einen Speicher, eine Batterie und/oder eine Kommunikationseinheit.
  • Wie oben erörtert kann die Erfassung von thermischen Messwerten der verschiedenen Regionen des Kopfes eines Benutzers viele gesundheitsbezogene (und andere) Applikationen haben. Die Bewegungen des Benutzers und/oder des Kopfes des Benutzers können jedoch die Erfassung dieser Daten für viele bekannte Verfahrensweisen schwierig machen. Wie die Beschreibungen der folgenden Ausführungsformen zeigen, verwenden einige hierin beschriebene Ausführungsformen aus diesem Grund verschiedene Kombinationen von Wärmekameras, die mit einem Gestell eines Head-Mounted-Systems (auch als ein „Wearable-System” oder einfach als ein „System” bezeichnet) verbunden sind.
  • In einer Ausführungsform umfasst ein System eine erste und eine zweite Wärmekamera, die physikalisch mit einem Gestell verbunden sind, das dazu konfiguriert ist, am Kopf eines Benutzers getragen zu werden. Die erste Wärmekamera ist dazu konfiguriert, thermische Messwerte einer ersten interessierenden Region (THROI1) zu erfassen, wobei die ROI1 zumindest einen Teil der rechten Seite der Stirn des Benutzers umfasst, und die zweite Wärmekamera ist dazu konfiguriert, thermische Messwerte einer zweiten ROI (THROI2) zu erfassen, wobei die ROI2 zumindest einen Teil der linken Seite der Stirn des Benutzers umfasst. Des Weiteren befinden sich die erste und die zweite Wärmekamera nicht in physikalischem Kontakt mit ihrer jeweiligen ROI, ist die Überschneidung zwischen der ROI1 und ROI2 kleiner als 80 % des kleinsten Bereichs aus der Menge der Bereiche von ROI1 und ROI2 und bleiben die Wärmekameras aufgrund ihrer Verbindung mit dem Gestell auf ihre jeweilige ROI gerichtet, wenn der Kopf des Benutzers winkelförmige Bewegungen macht.
  • In einer Ausführungsform ist das oben beschriebene System dazu konfiguriert, THROI1 und THROI2 an einen Prozessor weiterzuleiten, der dazu konfiguriert ist, eine physiologische Reaktion auf der Grundlage von THROI1 und THROI2 zu erkennen. Optional ist die physiologische Reaktion indikativ für mindestens einen der folgenden Zustände: Stress, psychische Arbeitsbelastung, Furcht, sexuelle Erregung, Angst, Schmerz, Puls, Kopfschmerzen und Schlaganfall.
  • In den verschiedenen Ausführungsformen können die oben genannten interessierenden Regionen geringfügig unterschiedliche Regionen auf dem Gesicht des Benutzers umfassen. In einem Beispiel umfasst die rechte Seite der Stirn des Benutzers mindestens 30 % der ROI1 und umfasst die linke Seite der Stirn des Benutzers mindestens 30 % der ROI2. In einem anderen Beispiel umfasst die rechte Seite der Stirn des Benutzers mindestens 80 % der ROI1 und umfasst die linke Seite der Stirn des Benutzers mindestens 80 % der ROI2.
  • Die Messwerte der Wärmekameras können in den verschiedenen Ausführungsformen für verschiedene Berechnungen verwendet werden. Beispielsweise messen die erste und die zweite Wärmekamera in einer Ausführungsform die Temperaturen an der ROI1 beziehungsweise ROI2. In dieser Ausführungsform kann das System zudem eine Schaltung umfassen, die dazu konfiguriert ist, eine Reihe von Temperaturmesswerten an der ROI1 zu erhalten und die Temperaturänderungen an der ROI1 (∆TROI1) zu berechnen, eine Reihe von Temperaturmesswerten an der ROI2 zu erhalten und die Temperaturänderungen an der ROI2 (∆TROI2) zu berechnen und ∆TROI1 und ∆TROI2 zum Erkennen einer physiologischen Reaktion zu verwenden. Optional ist der normale Messfehler der Temperaturen an der ROI1 des Systems mindestens doppelt so groß wie der normale Messfehlers der Temperaturänderungen an der ROI1 des Systems, wenn der Kopf des Benutzers winkelförmige Bewegungen mit über 0,02 rad/s macht. Optional ist der normale Messfehler der Temperaturen an der ROI1 des Systems mindestens fünfmal so groß wie der normale Messfehler der Temperaturänderungen an der ROI1 des Systems, wenn der Kopf des Benutzers winkelförmige Bewegungen mit über 0,2 rad/s macht.
  • Es folgt eine Beschreibung einer weiteren Ausführungsform eines Systems, das Wärmekameras umfasst, die Messwerte anderer Regionen des Gesichts eines Benutzers erfassen.
  • In einer Ausführungsform umfasst ein System eine erste und eine zweite Wärmekamera, die physikalisch mit einem Gestell verbunden sind, das dazu konfiguriert ist, am Kopf eines Benutzers getragen zu werden. Die erste Wärmekamera ist dazu konfiguriert, thermische Messwerte einer ersten interessierenden Region (THROI1) zu erfassen, wobei die ROI1 zumindest einen Teil des Stirnasts der rechten oberflächlichen Schläfenarterie des Benutzers umfasst, und die zweite Wärmekamera ist dazu konfiguriert, thermische Messwerte einer zweiten interessierenden Region (THROI2) zu erfassen, wobei die ROI2 zumindest einen Teil des Stirnasts der linken oberflächlichen Schläfenarterie des Benutzers umfasst. Des Weiteren befinden sich die erste und die zweite Wärmekamera nicht in physikalischem Kontakt mit ihrer jeweiligen ROI und bleiben die Wärmekameras aufgrund ihrer Verbindung mit dem Gestell auf ihre jeweilige ROI gerichtet, wenn der Kopf des Benutzers winkelförmige Bewegungen macht.
  • In einer Ausführungsform ist das oben beschriebene System dazu konfiguriert, THROI1 und THROI2 an einen Prozessor weiterzuleiten, der dazu konfiguriert ist, eine physiologische Reaktion auf der Grundlage von THROI1 und THROI2 zu erkennen. Optional ist die physiologische Reaktion indikativ für den arteriellen Puls des Benutzers. Zusätzlich oder alternativ kann die physiologische Reaktion indikativ für mindestens einen der folgenden Zustände sein: Stress, psychische Arbeitsbelastung, Furcht, Angst, Schmerz, Kopfschmerzen und Schlaganfall.
  • In einem Beispiel hat das physiologische Signal (z. B. Puls oder Atmung) periodische Eigenschaften, umfasst die Wärmekamera mehrere Sensorelemente und kann der Computer abhängend von der Bewegung und dem Rauschpegel zeitliche Signale für einzelne Pixel innerhalb der ROI2 extrahieren und/oder zeitliche Signale für Pixel-Cluster innerhalb der ROI2 extrahieren. Die Berechnung des physiologischen Signals kann eine harmonische Analyse, wie beispielsweise eine schnelle Fourier-Transformation, des Temperatursignals und/oder Temperaturänderungssignals jedes einzelnen Pixels oder Pixel-Clusters im Zeitablauf in einem Sliding-Window beinhalten, auf welche ein nichtlinearer Filter zur Reduzierung des Leck-Effekts für niederfrequente Signale in dem gemessenen Frequenzbereich folgen kann. In den Fällen, in denen einige Pixel weniger informativ als andere Pixel sein können, kann ein Clusterbildungsverfahren zum Entfernen von Ausreißern durchgeführt werden. Dann können die Frequenzspitzen in der Menge der interessierenden Pixel zur Auswahl der dominanten Frequenzkomponente verwendet werden; der Bin mit den meisten Stimmen wird als die dominante Frequenz ausgewählt, und die Schätzung des physiologischen Signals kann durch die medianen gefilterten Ergebnisse der dominanten Frequenzkomponenten in einem kleinen Sliding-Window erhalten werden.
  • Ein Beispiel für eine berührungslose Herzfrequenz- und Atemfrequenzdetektion durch Messung von Modulationen von in der Nähe der oberflächlichen Blutgefäße oder (beziehungsweise) einem nasalen Bereich emittiertem Infrarotlicht wird in der Literaturquelle „Yang, M., Liu, Q., Turner, T., & Wu, Y (2008), Vital sign estimation from passive thermal video, In Computer Vision and Pattern Recognition, 2008 (pp. 1–8), CVPR 2008 IEEE” beschrieben. Ein pulsierender Blutfluss induziert subtile periodische Temperaturänderungen der Haut über den oberflächlichen Gefäßen durch Wärmediffusion, die durch ein Wärmevideo zur Bestimmung der zugehörigen Herzfrequenz detektiert werden können. Die Temperaturmodulationen können durch die Änderungen der Pixelintensität in der ROI unter Verwendung einer Wärmekamera detektiert werden, und die zugehörige Herzfrequenz kann durch eine harmonische Analyse dieser Änderungen an dem Hautbereich über der oberflächlichen Schläfenarterie quantitativ gemessen werden (in diesem Kontext bezieht sich der „Hautbereich über der Arterie” auf den „Hautbereich auf der Arterie”).
  • In einer Ausführungsform werden Anforderungen, wie beispielsweise der Umgang mit durch Bewegungen des Benutzers verursachten Komplikationen, ROI-Ausrichtung, auf Hotspots oder Markierungen basierendes Tracking und Bewegungskompensation in dem IR-Video, durch die Verbindung der Wärmekamera mit dem Gestell vereinfacht und möglicherweise sogar eliminiert.
  • Der Grad der Temperaturmodulation aufgrund des Blutpulses ist weitaus geringer als die normale Hauttemperatur; folglich werden die subtilen periodischen Änderungen der Temperatur in einer Ausführungsform auf der Grundlage von Differenzen zwischen Einzelbildern quantifiziert. Zum Beispiel werden die Einzelbilddifferenzen gegenüber einem bestimmten Referenzbild nach einer optionalen Ausrichtung für jedes Einzelbild auf der Grundlage zugehöriger Pixel oder zugehöriger Pixel-Cluster berechnet. Die Temperaturdifferenzen können in den ersten Einzelbildern wie Zufallsrauschen aussehen, nahe der halben Pulsperiode zeigt sich jedoch ein bestimmtes Muster; dann werden die Temperaturdifferenzen mit Annäherung an die Pulsperiode wieder verrauscht. Die Herzfrequenz wird durch eine harmonische Analyse der Hauttemperaturmodulation über der oberflächlichen Schläfenarterie geschätzt. In einer Ausführungsform wird eine ähnliche Methode zur Schätzung der Atemfrequenz durch Messung der periodischen Temperaturänderungen im und um den Nasenbereich angewendet.
  • Zeichnung 7 im US-Patent 8,360,986 von Farag et al. zeigt die ROI des Stirnasts der rechten und linken oberflächlichen Schläfenarterie einer Person. Die örtliche Lage und Abmessungen der ROI des Stirnasts der rechten und linken oberflächlichen Schläfenarterie können bis zu einem gewissen Grad zwischen unterschiedlichen Personen variieren. Aufgrund der inhärenten Vorteile der offengelegten Head-Mounted-Wärmekameras kann es ausreichen, dass die ROI1 und ROI2 nur einen Teil der ROI des Stirnasts der rechten und linken oberflächlichen Schläfenarterie umfassen. Zusätzlich oder alternativ können die ROI1 und ROI2 Bereiche umfassen, die größer als die in Zeichnung 7 im US-Patent 8,360,986 dargestellten interessierenden Regionen sind.
  • Es folgt eine weitere Beschreibung einer Ausführungsform eines Systems, das Wärmekameras umfasst, die Messwerte bestimmter Regionen des Gesichts eines Benutzers erfassen. In einer Ausführungsform umfasst ein System eine erste und eine zweite Wärmekamera, die physikalisch mit einem Gestell verbunden sind, das dazu konfiguriert ist, am Kopf eines Benutzers getragen zu werden. Die erste Wärmekamera ist dazu konfiguriert, thermische Messwerte einer ersten interessierenden Region (THROI1) zu erfassen, wobei die ROI1 zumindest einen Teil der rechten oberflächlichen Schläfenarterie des Benutzers umfasst. Die zweite Wärmekamera ist dazu konfiguriert, thermische Messwerte einer zweiten interessierenden Region (THROI2) zu erfassen, wobei die ROI2 zumindest einen Teil der linken oberflächlichen Schläfenarterie des Benutzers umfasst. Des Weiteren befinden sich die erste und die zweite Wärmekamera nicht in physikalischem Kontakt mit ihrer jeweiligen ROI und bleiben die Wärmekameras aufgrund ihrer Verbindung mit dem Gestell auf ihre jeweilige ROI gerichtet, wenn der Kopf des Benutzers winkelförmige Bewegungen macht.
  • In einer Ausführungsform ist das oben beschriebene System dazu konfiguriert, THROI1 und THROI2 an einen Prozessor weiterzuleiten, der dazu konfiguriert ist, eine physiologische Reaktion auf der Grundlage von THROI1 und THROI2 zu erkennen. Optional ist die physiologische Reaktion indikativ für den arteriellen Puls des Benutzers. Zusätzlich oder alternativ ist die physiologische Reaktion indikativ für mindestens einen der folgenden Zustände: Stress, psychische Arbeitsbelastung, Furcht, Angst, Schmerz, Kopfschmerzen und Schlaganfall.
  • Zeichnung 7 im US-Patent 8,360,986 von Farag et al. zeigt die ROI der rechten und linken oberflächlichen Schläfenarterie einer Person. Die örtliche Lage und Abmessungen der ROI der rechten und linken oberflächlichen Schläfenarterie können bis zu einem gewissen Grad zwischen unterschiedlichen Personen variieren. Aufgrund der inhärenten Vorteile der offengelegten Head-Mounted-Wärmekameras kann es ausreichen, dass die ROI1 und ROI2 nur einen Teil der ROI der rechten und linken oberflächlichen Schläfenarterie umfassen. Zusätzlich oder alternativ können die ROI1 und ROI2 Bereiche umfassen, die größer als die in Zeichnung 7 im US-Patent 8,360,986 dargestellten interessierenden Regionen sind.
  • 1, 2 und 3 zeigen verschiedene Arten von Head-Mounted-Systemen mit daran befindlichen Kameras, wobei die gestrichelten Linien die Sichtfelder der Kameras angeben. Die Kameras können Wärmekameras und/oder Kameras für sichtbares Licht sein.
  • 7 zeigt die Periorbitalregion 300 und die wärmsten Regionen (301 und 302) in der Periorbitalregion.
  • 9, 10, 11 und 12 zeigen verschiedene Arten von Head-Mounted-Systemen mit daran befindlichen Kameras, wobei die gestrichelten Kreise und Ellipsen die interessierenden Regionen der Kameras darstellen. Die Kameras können Wärmekameras und/oder Kameras für sichtbares Licht sein.
  • In der folgenden Beschreibung wird ein weiteres Beispiel eines Systems, das Wärmekameras umfasst, die Messwerte bestimmter Regionen des Gesichts eines Benutzers erfassen, angeführt. In einer Ausführungsform umfasst ein Wearable-System, das dazu konfiguriert ist, thermische Messwerte zu erfassen, die eine Erkennung einer physiologischen Reaktion ermöglichen, mindestens ein Gestell und eine erste, zweite, dritte und vierte Wärmekamera. Das Gestell ist dazu konfiguriert, am Kopf eines Benutzers getragen zu werden, und die erste, zweite, dritte und vierte Wärmekamera bleiben auf ihre jeweilige ROI gerichtet, wenn der Kopf des Benutzers winkelförmige Bewegungen macht.
  • Die erste und die zweite Wärmekamera sind physikalisch mit dem Gestell an Stellen verbunden, die sich rechts und links von der das Gesicht des Benutzers in die rechte beziehungsweise linke Seite unterteilenden Symmetrieachse und weniger als 15 cm von der rechten beziehungsweise linken Pupille des Benutzers entfernt befinden. Die erste Wärmekamera ist dazu konfiguriert, thermische Messwerte einer ersten interessierenden Region (THROI1) zu erfassen, wobei die ROI1 zumindest einen Teil der rechten Seite der Stirn des Benutzers umfasst. Die zweite Wärmekamera ist dazu konfiguriert, thermische Messwerte einer zweiten interessierenden Region (THROI2) zu erfassen, wobei die ROI2 zumindest einen Teil der linken Seite der Stirn des Benutzers umfasst.
  • Die dritte und vierte Wärmekamera sind physikalisch mit dem Gestell an Stellen verbunden, die sich rechts beziehungsweise links von der Symmetrieachse, weniger als 15 cm von der Oberlippe des Benutzers entfernt und unterhalb der ersten und zweiten Wärmekamera befinden. Die dritte Wärmekamera ist dazu konfiguriert, thermische Messwerte einer dritten ROI (THROI3) zu erfassen, wobei die ROI3 zumindest einen Teil der rechten Oberlippe des Benutzers umfasst. Die vierte Wärmekamera ist dazu konfiguriert, thermische Messwerte einer vierten ROI (THROI4) zu erfassen, wobei die ROI4 zumindest einen Teil der linken Oberlippe des Benutzers umfasst. Des Weiteren befinden sich die dritte und vierte Wärmekamera außerhalb der Ausatemströme des Mundes und der Nasenlöcher und haben die Wärmekameras keinen physikalischen Kontakt mit ihrer jeweiligen ROI.
  • Das System ist dazu konfiguriert, THROI1, THROI2, THROI3 und THROI4 an einen Prozessor weiterzuleiten, der dazu konfiguriert ist, die physiologische Reaktion zu erkennen. Optional ist die physiologische Reaktion indikativ für einen emotionalen Zustand des Benutzers. Optional ist der emotionale Zustand indikativ für ein Ausmaß, mit dem der Benutzer zumindest eine der folgenden Emotionen gefühlt hat: Ärger, Ekel, Furcht, Freude, Traurigkeit und Überraschung. Zusätzlich oder alternativ kann die physiologische Reaktion indikativ für ein durch den Benutzer gefühltes Stressniveau sein. Zusätzlich oder alternativ kann die physiologische Reaktion indikativ für eine allergische Reaktion des Benutzers sein. Zusätzlich oder alternativ kann die physiologische Reaktion indikativ für ein durch den Benutzer gefühltes Schmerzniveau sein.
  • In den verschiedenen Ausführungsformen können die oben genannten interessierenden Regionen geringfügig unterschiedliche Regionen auf dem Gesicht des Benutzers umfassen. In einer Ausführungsform ist die Überschneidung zwischen der ROI1 und ROI2 kleiner als 50 % des kleinsten Bereichs aus der Menge der Bereiche von ROI1 und ROI2 und ist die Überschneidung zwischen der ROI3 und ROI4 kleiner als 50 % des kleinsten Bereichs aus der Menge der Bereiche von ROI3 und ROI4. In einer anderen Ausführungsform gibt es keine Überschneidung zwischen der ROI1 und ROI2 und keine Überschneidung zwischen der ROI3 und ROI4.
  • In einer Ausführungsform kann das oben beschriebene System eine fünfte Wärmekamera umfassen, die mit dem Gestell verbunden und auf eine fünfte interessierende Region (ROI5) gerichtet ist, wobei die ROI5 zumindest einen Teil der Nase des Benutzers umfasst und die fünfte Wärmekamera sich nicht in physikalischem Kontakt mit der ROI5 befindet. In einer anderen Ausführungsform kann das oben beschriebene System eine fünfte Wärmekamera umfassen, die mit dem Gestell verbunden und auf eine fünfte interessierende Region (ROI5) gerichtet ist, wobei die ROI5 zumindest einen Teil der Periorbitalregion des Gesichts des Benutzers umfasst und die fünfte Wärmekamera sich nicht in physikalischem Kontakt mit der ROI5 befindet.
  • Wie in dem folgenden Beispiel beschrieben, können einige Systeme zusätzlich zu Wärmekameras Kameras für sichtbares Licht umfassen. In einer Ausführungsform umfasst ein System, das dazu konfiguriert ist, thermische Messwerte und Messwerte sichtbaren Lichts des Gesichts eines Benutzers aus ortsfesten relativen Positionen zu erfassen, mindestens ein Gestell, eine erste Wärmekamera, eine zweite Wärmekamera und eine Kamera für sichtbares Licht. Das Gestell ist dazu konfiguriert, am Kopf des Benutzers getragen zu werden. Die erste Wärmekamera, die zweite Wärmekamera und die Kamera für sichtbares Licht sind physikalisch mit dem Gestell verbunden. Darüber hinaus behalten die Wärmekameras und die Kamera für sichtbares Licht eine ortsfeste Positionierung relativ zueinander und relativ zu ihrer jeweiligen ROI bei, wenn der Kopf des Benutzers winkelförmige Bewegungen macht.
  • Die erste Wärmekamera ist dazu konfiguriert, thermische Messwerte einer ersten interessierenden Region (THROI1) zu erfassen, wobei die ROI1 zumindest einen Teil des Bereichs um die Augen des Benutzers umfasst. Die zweite Wärmekamera ist dazu konfiguriert, thermische Messwerte einer zweiten ROI (THROI2) zu erfassen, wobei die ROI2 zumindest einen Teil der Oberlippe des Benutzers umfasst. Die Kamera für sichtbares Licht ist dazu konfiguriert, Bilder einer dritten interessierenden Region (IMROI3) zu erfassen, wobei die ROI3 zumindest einen Teil des Gesichts des Benutzers umfasst.
  • In einer Ausführungsform umfasst das System einen Prozessor, der dazu konfiguriert ist, ein auf maschinellem Lernen basierendes Modell für den Benutzer auf der Grundlage von THROI1 und THROI2 zu trainieren. Optional erkennt das Modell eine affektive Reaktion des Benutzers.
  • Der Begriff „Kamera für sichtbares Licht” bezieht sich hierin auf eine Kamera, die dazu bestimmt ist, zumindest einen Teil des sichtbaren Spektrums zu detektieren. Beispiele für Sensoren für sichtbares Licht umfassen Active-Pixel-Sensoren in einem komplementären Metall-Oxid-Halbleiter (Complementary-Metal-Oxide-Semiconductor, CMOS) und Halbleiter-Charge-Coupled-Devices (CCD).
  • Es folgen einige Beispiele für Systeme, die Wärmekameras für verschiedene Applikationen verwenden.
  • In einer Ausführungsform umfasst ein Wearable-System, wie beispielsweise ein HMS, das zur Schätzung eines Stressniveaus konfiguriert ist, ein Gestell, eine Wärmekamera und eine Schaltung. Das Gestell ist dazu konfiguriert, am Kopf eines Benutzers getragen zu werden. Die Wärmekamera ist physikalisch an einer Stelle mit dem Gestell verbunden, die weniger als 15 cm von einem Auge des Benutzers entfernt ist, befindet sich nicht in physikalischem Kontakt mit dem Auge und ist dazu konfiguriert, thermische Messwerte einer interessierenden Region (THROI) zu erfassen, wobei die ROI zumindest einen Teil einer Periorbitalregion des Auges des Benutzers umfasst. Die Schaltung ist dazu konfiguriert, das Stressniveau des Benutzers auf der Grundlage von von der Wärmekamera erhaltenen Änderungen der Temperatur der Periorbitalregion zu schätzen. Optional bezieht sich das Stressniveau auf ein stressvolles Ereignis, beträgt die Verzögerung zwischen einem stressvollen Ereignis und seiner Manifestation auf dem zumindest einen Teil der Periorbitalregion weniger als eine Minute und lässt ein Großteil der Manifestation innerhalb von weniger als fünf Minuten nach dem Ende des stressvollen Ereignisses nach.
  • In einer Ausführungsform umfasst das oben beschriebene System ein mit dem Gestell verbundenes Eye-Tracking-Modul, das dazu konfiguriert ist, den Blick des Benutzers zu verfolgen. Das Wearable-System ist ein optisches, durchsichtiges Head-Mounted-Display (HMD), das dazu konfiguriert ist, zusammen mit einer zweiten Kamera zu arbeiten, die dazu konfiguriert ist, Bilder von Objekten zu erfassen, die der Benutzer betrachtet, und das dazu konfiguriert ist, zusammen mit einem Prozessor zu arbeiten, der dazu konfiguriert ist, den Objekten, die der Benutzer betrachtet, die aus den thermischen Messwerten abgeleiteten Stressniveaus zuzuordnen.
  • In einer Ausführungsform umfasst das oben beschriebene System ein mit dem Gestell verbundenes Display, das dazu konfiguriert ist, ein Objekte enthaltendes Video darzustellen, und ein mit dem Gestell verbundenes Eye-Tracking-Modul, das dazu konfiguriert ist, den Blick des Benutzers zu verfolgen. Das Wearable-System ist dazu konfiguriert, zusammen mit einem Prozessor zu arbeiten, der dazu konfiguriert ist, den Objekten, die der Benutzer betrachtet, die aus den thermischen Messwerten abgeleiteten Stressniveaus zuzuordnen.
  • Die Periorbitalregion des Gesichts des Benutzers wird zum Beispiel in der Literaturquelle „Tsiamyrtzis, P., Dowdall, J., Shastri, D., Pavlidis, I. T., Frank, M. G., & Ekman, P. (2007), Imaging facial physiology for the detection of deceit, International Journal of Computer Vision, 71(2), 197–214” erörtert. 7 zeigt die periorbitale ROI durch schematische Darstellung als Rechteck 300. Die Regionen 301 und 302, als Bereiche in der Nähe der Tränenkanäle bezeichnet, machen schematisch etwa 10 % des wärmsten Bereichs innerhalb der periorbitalen ROI aus, welche zu Detektion der „Kampf-oder-Flucht-Reaktion” bei Stress (auch als „Fight-or-Flight-Syndrom” bekannt) ausreichen können.
  • Des Weiteren zeigt die Literaturquelle „Pavlidis, I., Levine, J., & Baukol, S. (2000), Thermal imaging for anxiety detection, In Computer Vision Beyond the Visible Spectrum: Methods and Applications, 2000. Proceedings. IEEE Workshop on (pp. 104–109)” die Periorbitalregion zusammen mit dem Nasenbereich, der rechten und linken Wange sowie dem Kinn- und Halsbereich.
  • 4, 5 und 6 zeigen verschiedene potenzielle Stellen, an denen die Wärmekameras so mit verschiedenen Gestellen eines Head-Mounted-Displays verbunden werden können, dass zumindest ein Teil der periorbitalen ROI im Sichtfeld einer oder mehrerer der Wärmekameras ist. Da sich die Wärmekamera in der Nähe der ROI befindet, kann sie klein und leicht sein und an vielen potenziellen Stellen in Sichtlinie zu der ROI positioniert werden.
  • In einer anderen Ausführungsform umfasst ein System, das dazu konfiguriert ist, ein Niveau der Kampf-oder-Flucht-Reaktion eines ein Head-Mounted-System (HMS) tragenden Benutzers zu schätzen, mindestens ein Gestell, eine Wärmekamera und eine Schaltung. Das Gestell ist dazu konfiguriert, am Kopf des Benutzers getragen zu werden. Die Wärmekamera ist physikalisch an einer Stelle mit dem Gestell verbunden, die weniger als 15 cm von einem Auge des Benutzers entfernt ist, befindet sich nicht in physikalischem Kontakt mit dem Auge und ist dazu konfiguriert, thermische Messwerte einer interessierenden Region (THROI) zu erfassen, wobei die ROI zumindest einen Teil einer Periorbitalregion des Auges des Benutzers umfasst. Die Schaltung ist dazu konfiguriert, das Niveau der Kampf-oder-Flucht-Reaktion des Benutzers auf der Grundlage von THROI zu schätzen.
  • In einer Ausführungsform umfasst das oben beschriebene System eine Benutzerschnittstelle, die dazu konfiguriert ist, den Benutzer zu benachrichtigen, wenn das Niveau der Kampf-oder-Flucht-Reaktion einen vorgegebenen Schwellenwert erreicht. Optional verwendet die Benutzerschnittstelle eine akustische und/oder optische Anzeige zum Benachrichtigen des Benutzers.
  • In einer Ausführungsform umfasst das oben beschriebene System: ein Display, das dazu konfiguriert ist, dem Benutzer ein Objekte enthaltendes Video zu zeigen, und ein Dokumentationsmodul, das dazu konfiguriert ist, das mit den betrachteten Objekten verbundene geschätzte Niveau der Kampf-oder-Flucht-Reaktion zu speichern.
  • In einer weiteren Ausführungsform umfasst ein System, das dazu konfiguriert ist, ein Stressniveau eines ein Head-Mounted-System (HMS) tragenden Benutzers zu schätzen, ein Gestell, eine Wärmekamera und eine Schaltung. Das Gestell ist dazu konfiguriert, am Kopf des Benutzers getragen zu werden. Die Wärmekamera, die physikalisch an einer Stelle mit dem Gestell verbunden ist, die weniger als 15 cm von der Nasenspitze des Benutzers entfernt ist, ist dazu konfiguriert, thermische Messwerte einer interessierenden Region (THROI) zu erfassen, wobei die ROI zumindest einen Teil des Bereichs der und um die Nase des Benutzers umfasst.
  • Optional basiert die Wärmekamera auf einem Thermosäulensensor und/oder einem pyroelektrischen Sensor. Ein Beispiel für die interessierende Region um die Nasenlöcher wird in der Literaturquelle „Shastri, D., Papadakis, M., Tsiamyrtzis, P., Bass, B., & Pavlidis, I. (2012), Perinasal imaging of physiological stress and its affective potential, Affective Computing, IEEE Transactions on, 3(3), 366–378” beschrieben. Die Schaltung ist dazu konfiguriert, das Stressniveau auf der Grundlage von THROI zu schätzen.
  • In einer Ausführungsform umfasst das oben beschriebene System zudem einen Biofeedbackmechanismus, der dazu konfiguriert ist, den Benutzer zu alarmieren, wenn das Stressniveau einen vorgegebenen Schwellenwert erreicht.
  • In noch einer weiteren Ausführungsform umfasst ein Wearable-System, das dazu konfiguriert ist, eine physiologische Reaktion eines Benutzers zu schätzen, ein Gestell, eine erste und eine zweite Wärmekamera und eine Schaltung. Das Gestell ist dazu konfiguriert, am Kopf des Benutzers getragen zu werden. Die erste und die zweite Wärmekamera sind physikalisch an Stellen mit dem Gestell verbunden, die weniger als 20 cm von der Stirn des Benutzers entfernt sind. Die erste Wärmekamera ist dazu konfiguriert, thermische Messwerte einer ersten interessierenden Region (THROI1) zu erfassen, wobei die ROI1 zumindest einen Teil der rechten Seite der Stirn des Benutzers umfasst. Die zweite Wärmekamera ist dazu konfiguriert, thermische Messwerte einer zweiten interessierenden Region (THROI2) zu erfassen, wobei die ROI2 zumindest einen Teil der linken Seite der Stirn des Benutzers umfasst. Die Schaltung ist dazu konfiguriert, die physiologische Reaktion des Benutzers auf der Grundlage von THROI1 und THROI2 zu schätzen. Optional sind THROI1 und THROI2 mit dem Blutfluss in dem Stirngefäß der Stirn des Benutzers korreliert. Optional ist die physiologische Reaktion ein psychischer Stress und ist die Schaltung außerdem dazu konfiguriert, den Blutfluss der Stirn, welcher indikativ für psychischen Stress ist, auf der Grundlage von THROI zu schätzen. Optional ist die Schaltung außerdem dazu konfiguriert, die periorbitale Durchblutung, welche indikativ für eine Kampf-oder-Flucht-Reaktion ist, auf der Grundlage von THROI zu schätzen.
  • In einer Ausführungsform umfasst das oben beschriebene System einen Biofeedbackmechanismus, der dazu konfiguriert ist, den Benutzer zu alarmieren, wenn das Stressniveau einen vorgegebenen Schwellenwert erreicht.
  • Wie das folgende Beispiel zeigt, kann ein Head-Mounted-System (HMS) eine Wärmekamera zur Schätzung der emotionalen Reaktion eines Benutzers gegenüber einem dem Benutzer gezeigten digitalen Inhalt verwenden. „Digitaler Inhalt” bezieht sich hierin auf jede Art von Inhalt, der auf einem Computer gespeichert und einem Benutzer durch den Computer gezeigt werden kann.
  • In einer Ausführungsform umfasst ein System, das dazu konfiguriert ist, thermische Messwerte eines ein Head-Mounted-Display (HMD) tragenden Benutzers zu erfassen, ein Display, eine Wärmekamera und eine Schaltung. Das Display, das durch den Benutzer getragen wird (es ist z. B. an einem Gestell des HMS angebracht), ist dazu konfiguriert, dem Benutzer einen digitalen Inhalt zu zeigen. Die Wärmekamera, die physikalisch mit dem HMD verbunden ist, ist dazu konfiguriert, thermische Messwerte einer interessierenden Region (THROI) auf dem Gesicht des Benutzers zu erfassen; die Wärmekamera befindet sich nicht in physikalischem Kontakt mit der ROI und bleibt auf die ROI gerichtet, wenn der Kopf des Benutzers winkelförmige Bewegungen macht. Die Schaltung ist dazu konfiguriert, eine affektive Reaktion des Benutzers auf den digitalen Inhalt auf der Grundlage von THROI zu schätzen.
  • In einer Ausführungsform ist die affektive Reaktion Stress, umfasst die ROI zumindest einen Teil der Periorbitalregion des Gesichts des Benutzers und ist das Stressniveau des Benutzers umso höher, desto größer die Änderung der ROI-Temperatur ist. In einer anderen Ausführungsform ist die affektive Reaktion Stress, umfasst die ROI zumindest einen Teil der Nase des Benutzers und ist das Ausmaß des Stresses proportional zu der Änderung der ROI-Temperatur. In einer weiteren Ausführungsform ist ein Wert aus der Menge mehrerer THROI-Werte, der einen Schwellenwert erreicht, indikativ für die affektive Reaktion. In noch einer weiteren Ausführungsform basiert mindestens ein Merkmalswert, der durch einen Prädiktor verwendet wird, der Vorkommnisse der affektiven Reaktion prognostiziert, auf THROI.
  • In einer Ausführungsform umfasst das oben beschriebene System einen Computer, der dazu konfiguriert ist, den digitalen Inhalt, der dem Benutzer gezeigt wird, auf der Grundlage der geschätzten affektiven Reaktion zu ändern.
  • In einer Ausführungsform misst die Wärmekamera die Temperatur an der ROI und ist der normale Messfehler der Temperatur an der ROI (ERRTROI) des Systems mindestens doppelt so groß wie der normale Messfehler der Temperaturänderung an der ROI (ERR∆TROI) des Systems, wenn der Kopf des Benutzers winkelförmige Bewegungen mit über 0,02 rad/s macht. Die Schaltung ist darüber hinaus in der Lage, eine affektive Reaktion zu erkennen, die eine Änderung der Temperatur an der ROI verursacht, die unterhalb von ERRTROI und oberhalb von ERR∆TROI ist.
  • In einer anderen Ausführungsform misst die Wärmekamera die Temperatur an der ROI und ist der normale Messfehler der Temperatur an der ROI (ERRTROI) des Systems mindestens fünfmal so groß wie der normale Messfehler der Temperaturänderung an der ROI (ERR∆TROI) des Systems, wenn der Kopf des Benutzers winkelförmige Bewegungen mit über 0,1 rad/s macht. Darüber hinaus ist die Schaltung in der Lage ist, eine affektive Reaktion zu erkennen, die eine Änderung der Temperatur an der ROI verursacht, die unterhalb von ERRTROI und oberhalb von ERR∆TROI ist.
  • In einer Ausführungsform umfasst ein Sicherheitssystem, das dazu konfiguriert ist, eine irreguläre Aktivität zu detektieren: ein Head-Mounted-Display (HMD), das ein Gestell, ein Display-Modul und eine Wärmekamera umfasst. Die Wärmekamera ist dazu konfiguriert, thermische Messwerte einer interessierenden Region (THROI) auf dem Gesicht des Benutzers zu erfassen; wobei die Wärmekamera sich nicht in physikalischem Kontakt mit der ROI befindet und auf die ROI gerichtet bleibt, wenn der Kopf des Benutzers winkelförmige Bewegungen macht. Eine Schaltung ist dazu konfiguriert, für den Benutzer ein als Basislinie dienendes Wärmeprofil auf der Grundlage von THROI zu berechnen, die erfasst werden, während der Benutzer als Basislinie dienende sensible Daten ansieht, die auf dem Display-Modul dargestellt werden. Wobei die Schaltung außerdem dazu konfiguriert ist, für den Benutzer ein bestimmtes Wärmeprofil auf der Grundlage von THROI zu berechnen, die erfasst werden, während der Benutzer bestimmte sensible Daten ansieht, die auf dem Display-Modul dargestellt werden, und eine Alarmmeldung zu erstellen, wenn die Differenz zwischen dem bestimmten Wärmeprofil und dem als Basislinie dienenden Wärmeprofil einen vorgegebenen Schwellenwert erreicht.
  • In einer Ausführungsform wird THROI als Temperatur an der ROI ausgedrückt und drückt das als Basislinie dienende Wärmeprofil die Temperatur aus, die normalerweise an der ROI auftritt, während der Benutzer gegenüber sensiblen Daten exponiert ist. In einer anderen Ausführungsform wird THROI als Änderung der Temperatur an der ROI ausgedrückt und drückt das als Basislinie dienende Wärmeprofil die Änderungen der Temperatur aus, die normalerweise etwa zum Zeitpunkt des Wechsels vom „Exponiertsein gegenüber nichtsensiblen Daten” zum „Exponiertsein gegenüber sensiblen Daten” an der ROI auftreten. In einer weiteren Ausführungsform wird THROI als Änderung der Temperatur an der ROI ausgedrückt und drückt das als Basislinie dienende Wärmeprofil die Änderungen der Temperatur aus, die normalerweise etwa zum Zeitpunkt des Wechsels vom „Exponiertsein gegenüber sensiblen Daten” zum „Exponiertsein gegenüber nichtsensiblen Daten” an der ROI auftreten.
  • In einer Ausführungsform umfasst die Wärmekamera einen ungekühlten Wärmesensor.
  • In einer Ausführungsform bezieht sich die Alarmmeldung auf einen Vorgang zur Detektion einer illegalen Aktivität. Optional beträgt die Verzögerung zwischen dem Zeitpunkt der Durchführung der illegalen Aktivität und dem Zeitpunkt des Erreichens des vorgegebenen Schwellenwerts weniger als zwei Minuten.
  • In einer anderen Ausführungsform verwendet das System die Alarmmeldung zur Schätzung eines Job-Burn-outs; wobei der Job-Burn-out umso gravierender ist, desto größer die Differenz zwischen dem bestimmten Wärmeprofil und dem als Basislinie dienenden Wärmeprofil ist.
  • In einer Ausführungsform betrachtet der Benutzer die bestimmten sensiblen Daten innerhalb von weniger als 15 Minuten vor oder nach dem Ansehen der als Basislinie dienenden sensiblen Daten. Da der negative Effekt von Umgebungsveränderungen und normalen physiologischen Veränderungen umso kleiner sein kann, desto kürzer die Zeit zwischen dem Ansehen der als Basislinie dienenden sensiblen Daten und dem Ansehen der bestimmten sensiblen Daten ist, kann es in einigen Fällen nützlich sein, zeitnahe Ereignisse zu vergleichen. In einem Beispiel betrachtet der Benutzer die bestimmten sensiblen Daten unmittelbar vor und/oder nach dem Ansehen der als Basislinie dienenden sensiblen Daten. In einem anderen Beispiel betrachtet der Benutzer die bestimmten sensiblen Daten innerhalb von weniger als 5 Minuten vor und/oder nach dem Ansehen der als Basislinie dienenden sensiblen Daten.
  • In einer Ausführungsform ist die Schaltung außerdem dazu konfiguriert, Charakteristika der Umgebung zu erhalten, in der sich der Benutzer während des Ansehens der bestimmten sensiblen Daten befindet, und als Basislinie ein Ereignis auszuwählen, bei dem der Benutzer die als Basislinie dienenden sensiblen Daten während eines Aufenthalts in einer ähnlichen Umgebung angesehen hat. In einem Beispiel ist die Differenz der Umgebungstemperaturen ähnlicher Umgebungen kleiner als 2 °C. In einem anderen Beispiel ist die Differenz der Luftfeuchtigkeit ähnlicher Umgebungen kleiner als 5 Prozent. In einem weiteren Beispiel ist die Differenz des Sauerstoffanteils der Luft ähnlicher Umgebungen kleiner als 2 Prozent.
  • In einer Ausführungsform detektiert das System außerdem, dass der Benutzer das HMD bewegt hat, während er/sie gegenüber den bestimmten sensiblen Daten exponiert war, und erlaubt es dann dem Benutzer das Durchführen eines bestimmten Arbeitsvorgangs in Bezug auf die bestimmten sensiblen Daten nicht. In einem Beispiel umfasst der bestimmte Arbeitsvorgang mindestens einen der folgenden Arbeitsvorgänge: Kopieren, Lesen und Ändern der bestimmten sensiblen Daten. In einem anderen Beispiel beziehen sich die bestimmten sensiblen Daten auf Geld und umfasst der bestimmte Arbeitsvorgang einen elektronischen Zahlungsverkehr von einer Person oder Entität an eine andere Person oder Entität.
  • In einer anderen Ausführungsform detektiert das System außerdem, dass der Benutzer das HMD bewegt hat, während er/sie gegenüber den bestimmten sensiblen Daten exponiert war, und markiert es dann die Beziehung zwischen dem Benutzer und den bestimmten sensiblen Daten als verdächtig; und umfasst das System außerdem das Erstellen eines Sicherheitsalarms, nachdem das System detektiert hat, dass der Benutzer das HMD erneut bewegt hat, während er/sie gegenüber anderen sensiblen Daten exponiert war, die vom gleichen Typ wie die bestimmten sensiblen Daten sind.
  • Optional umfasst die ROI zumindest einen Teil einer Periorbitalregion des Gesichts des Benutzers.
  • 8 ist eine schematische Darstellung eines Computers 400, der in der Lage ist, eine oder mehrere der hierin erörterten Ausführungsformen auszuführen. Der Computer 400 kann auf verschiedene Weise implementiert werden, wie beispielsweise jedoch nicht beschränkt auf: ein Server, ein Client, ein Personal Computer, eine Set-Top-Box (STB), ein Netzwerkgerät, ein Handheld-Gerät (z. B. ein Smartphone), in Wearable-Geräte integrierte Computergeräte (z. B. eine Smartwatch oder ein Computer, der in Kleidung integriert ist), in den menschlichen Körper implantierte Computergeräte und/oder jedwede andere Computerform, die in der Lage ist, eine Computeranweisung auszuführen. Darüber hinaus umfassen Verweise auf einen Computer jede Zusammenstellung aus einem oder mehreren Computern, die eine oder mehrere Computeranweisungen zur Durchführung einer oder mehrerer der offengelegten Ausführungsformen einzeln oder gemeinsam ausführen.
  • Der Computer 400 beinhaltet eine oder mehrere der folgenden Komponenten: Prozessor 401, Speicher 402, computerlesbarer Datenträger 403, Benutzerschnittstelle 404, Kommunikationsschnittstelle 405 und Bus 406. In einem Beispiel kann der Prozessor 401 eine oder mehrere der folgenden Komponenten umfassen: eine allgemeine Verarbeitungseinheit, ein Mikroprozessor, eine zentrale Verarbeitungseinheit, ein Complex-Instruction-Set-Computer-Mikroprozessor (CISC-Mikroprozessor), ein Reduced-Instruction-Set-Computer-Mikroprozessor (RISC-Mikroprozessor), ein Very-Long-Instruction-Word-Mikroprozessor (VLIW-Mikroprozessor), eine spezielle Verarbeitungseinheit, eine anwendungsspezifische integrierte Schaltung (ASIC), ein Field-Programmable-Gate-Array (FPGA), ein digitaler Signalprozessor (DSP), eine verteilte Verarbeitungseinheit und/oder ein Netzwerkprozessor. Des Weiteren kann der Speicher 402 des obigen Beispiels eine oder mehrere der folgenden Speicherkomponenten umfassen: CPU-Cache, Hauptspeicher, Festwertspeicher (Read-only-Memory, ROM), Dynamic-Random-Access-Memory (dynamisches RAM, DRAM) wie beispielsweise synchrones DRAM (SDRAM), Flash-Speicher, Static-Random-Access-Memory (statisches RAM, SRAM) und/oder ein Datenträger. Der Prozessor 401 und die eine oder mehreren Speicherkomponenten können miteinander über einen Bus, wie beispielsweise der Bus 406, kommunizieren.
  • Weiterhin kann die Kommunikationsschnittstelle 405 des obigen Beispiels eine oder mehrere Komponenten zur Verbindung mit einem oder mehreren der folgenden Kommunikationsnetze umfassen: LAN, Ethernet, Intranet, Internet, ein Glasfaserkommunikationsnetz, ein drahtgebundenes Kommunikationsnetz und/oder ein drahtloses Kommunikationsnetz. Optional wird die Kommunikationsschnittstelle 405 zur Herstellung einer Verbindung mit dem Netzwerk 408 verwendet. Zusätzlich oder alternativ kann die Kommunikationsschnittstelle 405 zur Herstellung einer Verbindung mit anderen Netzwerken und/oder anderen Kommunikationsschnittstellen verwendet werden. Des Weiteren kann die Benutzerschnittstelle 404 des obigen Beispiels eine oder mehrere der folgenden Komponenten umfassen: (i) ein Bilderzeugungsgerät wie beispielsweise ein Video-Display, ein Augmented-Reality-System, ein Virtual-Reality-System und/oder ein Mixed-Reality-System, (ii) ein Tonerzeugungsgerät wie beispielsweise ein oder mehrere Lautsprecher, (iii) ein Eingabegerät wie eine Tastatur, eine Maus, ein gestenbasiertes Eingabegerät, das aktiv oder passiv sein kann, und/oder eine Gehirn-Computer-Schnittstelle.
  • Zumindest einige der in dieser Offenlegung beschriebenen Verfahren, welche auch als „computerimplementierte Verfahren” bezeichnet werden können, werden auf einem Computer, wie beispielsweise der Computer 400, implementiert. Beim Implementieren eines Verfahrens aus der Menge der zumindest einigen Verfahren werden zumindest einige der zu dem Verfahren gehörenden Schritte durch den Prozessor 401 durch Ausführung von Anweisungen durchgeführt. Darüber hinaus können zumindest einige der Anweisungen zur Ausführung der in dieser Offenlegung beschriebenen Verfahren und/oder zur Implementierung der in dieser Offenlegung beschriebenen Systeme auf einem nichttransitorischen, computerlesbaren Datenträger gespeichert werden.
  • Ein vorgegebener Wert, wie beispielsweise ein vorgegebenes Konfidenzniveau oder ein vorgegebener Schwellenwert, ist hierin ein Festwert und/oder ein Wert, der zu einem beliebigen Zeitpunkt vor der Durchführung einer Berechnung, die einen bestimmten Wert mit dem vorgegebenen Wert vergleicht, bestimmt wird. Des Weiteren gilt ein Wert als ein vorgegebener Wert, wenn die Logik, die verwendet wird, um zu bestimmen, ob ein den Wert verwendender Schwellenwert erreicht wird, vor dem Beginn der Durchführung der Berechnungen zur Feststellung, ob der Schwellenwert erreicht wird, bekannt ist.
  • In dieser Beschreibung bedeuten Bezugnahmen auf „eine Ausführungsform”, dass das betreffende Merkmal in mindestens einer Ausführungsform der Erfindung enthalten sein kann. Darüber hinaus beziehen sich separate Bezugnahmen auf „eine Ausführungsform” oder „einige Ausführungsformen” in dieser Beschreibung nicht zwangsläufig auf dieselbe Ausführungsform. Darüber hinaus können sich Bezugnahmen auf „eine Ausführungsform”, „eine andere Ausführungsform” und „eine weitere Ausführungsform” nicht zwangsläufig auf verschiedene Ausführungsformen beziehen, können jedoch Begriffe sein, die bisweilen zur Darstellung verschiedener Aspekte einer Ausführungsform verwendet werden.
  • Die Ausführungsformen der Erfindung können jede Variante von Kombinationen und/oder Integrationen der Merkmale der hierin beschriebenen Ausführungsformen umfassen. Obgleich einige Ausführungsformen serielle Operationen darstellen können, können die Ausführungsformen bestimmte Operationen in paralleler und/oder in von den dargestellten Reihenfolgen abweichenden Reihenfolgen durchführen. Die Verwendung von wiederholten Referenzziffern und/oder -buchstaben im Text und/oder in den Zeichnungen erfolgt darüber hinaus im Sinne der Einfachheit und Übersichtlichkeit und schreibt an sich keine Beziehung zwischen den verschiedenen erörterten Ausführungsformen und/oder Konfigurationen vor. Die Ausführungsformen sind hinsichtlich ihrer Applikationen nicht auf die in der Beschreibung, in den Zeichnungen oder in den Beispielen festgelegte Reihenfolge der Schritte der Verfahren oder auf die in der Beschreibung, in den Zeichnungen oder in den Beispielen festgelegten Details der Implementierung der Geräte beschränkt. Darüber hinaus können die in den Zeichnungen dargestellten einzelnen Blöcke von funktioneller Natur sein und deshalb nicht zwangsläufig separaten Hardware-Elementen entsprechen. In den Patentansprüchen sind die Begriffe „erste”, „zweite” und so weiter lediglich als Ordnungsbezeichnungen zu interpretieren und sollen diese Begriffe nicht auf sich beschränkt sein.
  • Obgleich die hierin offengelegten Verfahren mit Bezug auf bestimmte, in einer bestimmten Reihenfolge durchgeführte Schritte beschrieben und dargestellt wurden, wird davon ausgegangen, dass diese Schritte zur Bildung eines äquivalenten Verfahrens ohne Abweichung von den Lehren der Ausführungsformen kombiniert, unterteilt und/oder umgeordnet werden können. Sofern nicht ausdrücklich hierin angegeben, stellen die Reihenfolge und Gruppierung der Schritte folglich keine Einschränkung der Ausführungsformen dar. Darüber hinaus werden die Verfahren und Mechanismen der Ausführungsformen aus Gründen der Übersichtlichkeit manchmal in der Singularform beschrieben. Sofern nicht anders angegeben, können einige Ausführungsformen jedoch mehrere Iterationen eines Verfahrens oder mehrere Instanziierungen eines Mechanismus enthalten. Wenn beispielsweise ein Prozessor in einer Ausführungsform offengelegt wird, soll der Umfang der Ausführungsform auch die Verwendung mehrerer Prozessoren umfassen. Bestimmte Merkmale der Ausführungsformen, die aus Gründen der Übersichtlichkeit im Kontext separater Ausführungsformen beschrieben worden sein können, können zudem in einer einzigen Ausführungsform in verschiedenen Kombinationen bereitgestellt werden. Umgekehrt können verschiedene Merkmale der Ausführungsformen, die aus Platzgründen im Kontext einer einzigen Ausführungsform beschrieben worden sein können, zudem separat oder in jedweder geeigneten Unterkombination bereitgestellt werden. In Verbindung mit konkreten Beispielen beschriebene Ausführungsformen werden beispielshalber und nicht einschränkungshalber dargestellt. Darüber hinaus ist es offensichtlich, dass auf dem Gebiet der Technik qualifizierten Personen viele Alternativen, Modifikationen und Variationen ersichtlich sein werden. Es ist davon auszugehen, dass andere Ausführungsformen angewendet und strukturelle Veränderungen vorgenommen werden können, ohne vom Umfang der Ausführungsformen abzuweichen. Dementsprechend soll diese Offenlegung alle solche Alternativen, Modifikationen und Variationen umfassen, die im Geist und Umfang der angefügten Patentansprüche und ihrer Entsprechungen liegen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 6129673 [0024]
    • US 8360986 [0064, 0064, 0067, 0067]
  • Zitierte Nicht-Patentliteratur
    • Dillner, U., Kessler, E., & Meyer, H. G. (2013), Figures of merit of thermoelectric and bolometric thermal radiation sensors, J. Sens. Sens. Syst, 2, 85–94 [0030]
    • Graf, A., Arndt, M., & Gerlach, G. (2007), Seebeck’s effect in micromachined thermopiles for infrared detection. A review, Proc. Estonian Acad. Sci. Eng, 13(4), 338–353 [0031]
    • Pezzotti, G., Coppa, P., & Liberati, F. (2006), Pyrometer at low radiation for measuring the forehead skin temperature, Revista Facultad de Ingeniería Universidad de Antioquia, (38), 128–135 [0038]
    • Yang, M., Liu, Q., Turner, T., & Wu, Y (2008), Vital sign estimation from passive thermal video, In Computer Vision and Pattern Recognition, 2008 (pp. 1–8), CVPR 2008 IEEE [0061]
    • Tsiamyrtzis, P., Dowdall, J., Shastri, D., Pavlidis, I. T., Frank, M. G., & Ekman, P. (2007), Imaging facial physiology for the detection of deceit, International Journal of Computer Vision, 71(2), 197–214 [0085]
    • Pavlidis, I., Levine, J., & Baukol, S. (2000), Thermal imaging for anxiety detection, In Computer Vision Beyond the Visible Spectrum: Methods and Applications, 2000. Proceedings. IEEE Workshop on (pp. 104–109) [0086]
    • Shastri, D., Papadakis, M., Tsiamyrtzis, P., Bass, B., & Pavlidis, I. (2012), Perinasal imaging of physiological stress and its affective potential, Affective Computing, IEEE Transactions on, 3(3), 366–378 [0092]

Claims (8)

  1. System, umfassend: eine erste und eine zweite Wärmekamera, die physikalisch mit einem Gestell verbunden sind, das dazu konfiguriert ist, am Kopf eines Benutzers getragen zu werden; die erste Wärmekamera ist dazu konfiguriert, thermische Messwerte einer ersten interessierenden Region (THROI1) zu erfassen, wobei die erste interessierende Region (ROI1) zumindest einen Teil der rechten Seite der Stirn des Benutzers umfasst; und die zweite Wärmekamera ist dazu konfiguriert, thermische Messwerte einer zweiten interessierenden Region (THROI2) zu erfassen, wobei die zweite interessierende Region (ROI2) zumindest einen Teil der linken Seite der Stirn des Benutzers umfasst; wobei die erste und die zweite Wärmekamera sich nicht in physikalischem Kontakt mit ihrer jeweiligen interessierenden Region (ROI) befinden, die Überschneidung zwischen der ROI1 und ROI2 kleiner als 80 % des kleinsten Bereichs aus der Menge der Bereiche von ROI1 und ROI2 ist und die Wärmekameras aufgrund ihrer Verbindung mit dem Gestell auf ihre jeweilige ROI gerichtet bleiben, wenn der Kopf des Benutzers winkelförmige Bewegungen macht.
  2. System, umfassend: eine erste und eine zweite Wärmekamera, die physikalisch mit einem Gestell verbunden sind, das dazu konfiguriert ist, am Kopf eines Benutzers getragen zu werden; die erste Wärmekamera ist dazu konfiguriert, thermische Messwerte einer ersten interessierenden Region (THROI1) zu erfassen, wobei die ROI1 zumindest einen Teil des Stirnasts der rechten oberflächlichen Schläfenarterie des Benutzers umfasst; und die zweite Wärmekamera ist dazu konfiguriert, thermische Messwerte einer zweiten interessierenden Region (THROI2) zu erfassen, wobei die ROI2 zumindest einen Teil des Stirnasts der linken oberflächlichen Schläfenarterie des Benutzers umfasst; wobei die erste und die zweite Wärmekamera sich nicht in physikalischem Kontakt mit ihrer jeweiligen ROI befinden und die Wärmekameras aufgrund ihrer Verbindung mit dem Gestell auf ihre jeweilige ROI gerichtet bleiben, wenn der Kopf des Benutzers winkelförmige Bewegungen macht.
  3. System, umfassend: eine erste und eine zweite Wärmekamera, die physikalisch mit einem Gestell verbunden sind, das dazu konfiguriert ist, am Kopf eines Benutzers getragen zu werden; die erste Wärmekamera ist dazu konfiguriert, thermische Messwerte einer ersten interessierenden Region (THROI1) zu erfassen, wobei die ROI1 zumindest einen Teil der rechten oberflächlichen Schläfenarterie des Benutzers umfasst; und die zweite Wärmekamera ist dazu konfiguriert, thermische Messwerte einer zweiten interessierenden Region (THROI2) zu erfassen, wobei die ROI2 zumindest einen Teil der linken oberflächlichen Schläfenarterie des Benutzers umfasst; wobei die erste und die zweite Wärmekamera sich nicht in physikalischem Kontakt mit ihrer jeweiligen ROI befinden und die Wärmekameras aufgrund ihrer Verbindung mit dem Gestell auf ihre jeweilige ROI gerichtet bleiben, wenn der Kopf des Benutzers winkelförmige Bewegungen macht.
  4. System des Anspruchs 3, wobei das System dazu konfiguriert ist, THROI1 und THROI2 an einen Prozessor weiterzuleiten, der dazu konfiguriert ist, eine physiologische Reaktion auf der Grundlage von THROI1 und THROI2 zu erkennen.
  5. System des Anspruchs 4, wobei die physiologische Reaktion indikativ für den arteriellen Puls des Benutzers ist.
  6. System des Anspruchs 4, wobei die physiologische Reaktion indikativ für mindestens einen der folgenden Zustände ist: Stress, psychische Arbeitsbelastung, Furcht, Angst, Schmerz, Kopfschmerzen und Schlaganfall.
  7. Wearable-System, das dazu konfiguriert ist, thermische Messwerte zu erfassen, die eine Erkennung einer physiologischen Reaktion ermöglichen, umfassend: ein Gestell, das dazu konfiguriert ist, am Kopf eines Benutzers getragen zu werden; eine erste und eine zweite Wärmekamera, die physikalisch mit dem Gestell an Stellen verbunden sind, die sich rechts und links von der das Gesicht des Benutzers in die rechte beziehungsweise linke Seite unterteilenden Symmetrieachse und weniger als 15 cm von der rechten beziehungsweise linken Pupille des Benutzers entfernt befinden; die erste Wärmekamera ist dazu konfiguriert, thermische Messwerte einer ersten interessierenden Region (THROI1) zu erfassen, wobei die ROI1 zumindest einen Teil der rechten Seite der Stirn des Benutzers umfasst; die zweite Wärmekamera ist dazu konfiguriert, thermische Messwerte einer zweiten interessierenden Region (THROI2) zu erfassen, wobei die ROI2 zumindest einen Teil der linken Seite der Stirn des Benutzers umfasst; eine dritte und vierte Wärmekamera, die physikalisch mit dem Gestell an Stellen verbunden sind, die sich rechts beziehungsweise links von der Symmetrieachse, weniger als 15 cm von der Oberlippe des Benutzers entfernt und unterhalb der ersten und zweiten Wärmekamera befinden; die dritte Wärmekamera ist dazu konfiguriert, thermische Messwerte einer dritten interessierenden Region (THROI3) zu erfassen, wobei die ROI3zumindest einen Teil der rechten Oberlippe des Benutzers umfasst; die vierte Wärmekamera ist dazu konfiguriert, thermische Messwerte einer vierten interessierenden Region (THROI4) zu erfassen, wobei die ROI4 zumindest einen Teil der linken Oberlippe des Benutzers umfasst; wobei sich die dritte und vierte Wärmekamera außerhalb der Ausatemströme des Mundes und der Nasenlöcher befinden und wobei sich die Wärmekameras nicht in physikalischem Kontakt mit ihrer jeweiligen ROI befinden; und das System ist dazu konfiguriert, THROI1, THROI2, THROI3 und THROI4 an einen Prozessor weiterzuleiten, der dazu konfiguriert ist, die physiologische Reaktion zu erkennen.
  8. System, das dazu konfiguriert ist, thermische Messwerte und Messwerte sichtbaren Lichts des Gesichts eines Benutzers aus ortsfesten relativen Positionen zu erfassen, umfassend: ein Gestell, das dazu konfiguriert ist, am Kopf des Benutzers getragen zu werden; eine erste Wärmekamera, eine zweite Wärmekamera und eine Kamera für sichtbares Licht, die physikalisch mit dem Gestell verbunden sind; die erste Wärmekamera ist dazu konfiguriert, thermische Messwerte einer ersten interessierenden Region (THROI1) zu erfassen, wobei die ROI1 zumindest einen Teil des Bereichs um die Augen des Benutzers umfasst; die zweite Wärmekamera ist dazu konfiguriert, thermische Messwerte einer zweiten interessierenden Region (THROI2) zu erfassen, wobei die ROI2 zumindest einen Teil der Oberlippe des Benutzers umfasst; und die Kamera für sichtbares Licht ist dazu konfiguriert, Bilder einer dritten interessierenden Region (IMROI3) zu erfassen, wobei die ROI3 zumindest einen Teil des Gesichts des Benutzers umfasst; wobei die Wärmekameras und die Kamera für sichtbares Licht eine ortsfeste Positionierung relativ zueinander und relativ zu ihrer jeweiligen ROI beibehalten, wenn der Kopf des Benutzers winkelförmige Bewegungen macht.
DE102016110902.9A 2015-06-14 2016-06-14 Head-Mounted-Devices zur Erfassung thermischer Messwerte Withdrawn DE102016110902A1 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201562175319P 2015-06-14 2015-06-14
US62/175,319 2015-06-14
US201562202808P 2015-08-08 2015-08-08
US62/202,808 2015-08-08

Publications (1)

Publication Number Publication Date
DE102016110902A1 true DE102016110902A1 (de) 2016-12-15

Family

ID=57395147

Family Applications (2)

Application Number Title Priority Date Filing Date
DE102016110903.7A Withdrawn DE102016110903A1 (de) 2015-06-14 2016-06-14 Head-Mounted-Devices zur Messung physiologischer Reaktionen
DE102016110902.9A Withdrawn DE102016110902A1 (de) 2015-06-14 2016-06-14 Head-Mounted-Devices zur Erfassung thermischer Messwerte

Family Applications Before (1)

Application Number Title Priority Date Filing Date
DE102016110903.7A Withdrawn DE102016110903A1 (de) 2015-06-14 2016-06-14 Head-Mounted-Devices zur Messung physiologischer Reaktionen

Country Status (2)

Country Link
US (3) US10165949B2 (de)
DE (2) DE102016110903A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113197585A (zh) * 2021-04-01 2021-08-03 燕山大学 一种神经肌肉信息交互模型构建及参数辨识优化方法

Families Citing this family (167)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI439960B (zh) 2010-04-07 2014-06-01 Apple Inc 虛擬使用者編輯環境
US9634855B2 (en) 2010-05-13 2017-04-25 Alexander Poltorak Electronic personal interactive device that determines topics of interest using a conversational agent
US20130127620A1 (en) 2011-06-20 2013-05-23 Cerner Innovation, Inc. Management of patient fall risk
US10546481B2 (en) 2011-07-12 2020-01-28 Cerner Innovation, Inc. Method for determining whether an individual leaves a prescribed virtual perimeter
US20160113345A1 (en) * 2013-06-18 2016-04-28 Alexandr Alexandrovich KOLOTOV Helmet for motorcyclists and for people who engage in extreme activities
US10055892B2 (en) * 2014-11-16 2018-08-21 Eonite Perception Inc. Active region determination for head mounted displays
US10090068B2 (en) 2014-12-23 2018-10-02 Cerner Innovation, Inc. Method and system for determining whether a monitored individual's hand(s) have entered a virtual safety zone
US10524722B2 (en) 2014-12-26 2020-01-07 Cerner Innovation, Inc. Method and system for determining whether a caregiver takes appropriate measures to prevent patient bedsores
CN104873172A (zh) * 2015-05-11 2015-09-02 京东方科技集团股份有限公司 具有健康检测功能的装置及检测方法、显示装置、系统
US9892611B1 (en) 2015-06-01 2018-02-13 Cerner Innovation, Inc. Method for determining whether an individual enters a prescribed virtual zone using skeletal tracking and 3D blob detection
US10113913B2 (en) * 2015-10-03 2018-10-30 Facense Ltd. Systems for collecting thermal measurements of the face
JP6985005B2 (ja) * 2015-10-14 2021-12-22 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 感情推定方法、感情推定装置、及び、プログラムを記録した記録媒体
GB2543913B (en) * 2015-10-30 2019-05-08 Walmart Apollo Llc Virtual conference room
US10276210B2 (en) * 2015-11-18 2019-04-30 International Business Machines Corporation Video enhancement
CA2948761A1 (en) * 2015-11-23 2017-05-23 Wal-Mart Stores, Inc. Virtual training system
CN108431730B (zh) * 2015-12-24 2021-11-23 联合利华知识产权控股有限公司 增强型镜子
EP3394712B1 (de) 2015-12-24 2019-06-05 Unilever Plc. Augmentierter spiegel
US10299716B2 (en) * 2015-12-24 2019-05-28 Intel Corporation Side face image-based mental state determination
US9892311B2 (en) 2015-12-31 2018-02-13 Cerner Innovation, Inc. Detecting unauthorized visitors
JP6845982B2 (ja) * 2016-01-13 2021-03-24 フォーブ インコーポレーテッド 表情認識システム、表情認識方法及び表情認識プログラム
JP2017134558A (ja) * 2016-01-27 2017-08-03 ソニー株式会社 情報処理装置、情報処理方法、およびプログラムを記録したコンピュータ読み取り可能な記録媒体
US10217261B2 (en) * 2016-02-18 2019-02-26 Pinscreen, Inc. Deep learning-based facial animation for head-mounted display
CN105867617B (zh) * 2016-03-25 2018-12-25 京东方科技集团股份有限公司 增强现实设备、系统、图像处理方法及装置
AU2017100670C4 (en) 2016-06-12 2019-11-21 Apple Inc. User interfaces for retrieving contextually relevant media content
US10049263B2 (en) * 2016-06-15 2018-08-14 Stephan Hau Computer-based micro-expression analysis
US11017712B2 (en) 2016-08-12 2021-05-25 Intel Corporation Optimized display image rendering
US11269480B2 (en) * 2016-08-23 2022-03-08 Reavire, Inc. Controlling objects using virtual rays
KR102579895B1 (ko) * 2016-08-26 2023-09-19 삼성전자 주식회사 전자장치, 이를 활용한 적외선 센서 기반의 심장 박동 수 측정 방법
US9928660B1 (en) 2016-09-12 2018-03-27 Intel Corporation Hybrid rendering for a wearable display attached to a tethered computer
GB2570829B (en) * 2016-10-14 2021-12-01 Facense Ltd Detecting physiological responses based on thermal asymmetry of the face
JP2018107695A (ja) * 2016-12-27 2018-07-05 フォーブ インコーポレーテッド 推定システム、推定方法及び推定プログラム
US10147184B2 (en) 2016-12-30 2018-12-04 Cerner Innovation, Inc. Seizure detection
FR3061583B1 (fr) * 2017-01-04 2020-12-04 Oreal Dispositif d'acquisition d'une video d'alterations cutanees, systeme de caracterisation et procede de caracterisation associes
WO2018142228A2 (en) * 2017-01-19 2018-08-09 Mindmaze Holding Sa Systems, methods, apparatuses and devices for detecting facial expression and for tracking movement and location including for at least one of a virtual and augmented reality system
US10515474B2 (en) 2017-01-19 2019-12-24 Mindmaze Holding Sa System, method and apparatus for detecting facial expression in a virtual reality system
US10943100B2 (en) 2017-01-19 2021-03-09 Mindmaze Holding Sa Systems, methods, devices and apparatuses for detecting facial expression
CN110199244B (zh) * 2017-01-20 2022-05-24 索尼公司 信息处理设备、信息处理方法以及程序
US10732989B2 (en) * 2017-02-09 2020-08-04 Yanir NULMAN Method for managing data, imaging, and information computing in smart devices
CN106932905A (zh) 2017-02-27 2017-07-07 阿里巴巴集团控股有限公司 虚拟现实头戴设备
US20180247443A1 (en) * 2017-02-28 2018-08-30 International Business Machines Corporation Emotional analysis and depiction in virtual reality
GB2560340A (en) * 2017-03-07 2018-09-12 Eyn Ltd Verification method and system
US10568573B2 (en) * 2017-03-07 2020-02-25 Sony Interactive Entertainment LLC Mitigation of head-mounted-display impact via biometric sensors and language processing
JP6568887B2 (ja) * 2017-03-14 2019-08-28 本田技研工業株式会社 情報表示装置
CN110574357B (zh) * 2017-03-31 2021-10-22 索尼半导体解决方案公司 成像控制设备、用于控制成像控制设备的方法以及移动体
US11042729B2 (en) * 2017-05-01 2021-06-22 Google Llc Classifying facial expressions using eye-tracking cameras
US10939833B2 (en) * 2017-05-01 2021-03-09 Samsung Electronics Company, Ltd. Determining artery location using camera-based sensing
US10521948B2 (en) 2017-05-16 2019-12-31 Apple Inc. Emoji recording and sending
US10210648B2 (en) * 2017-05-16 2019-02-19 Apple Inc. Emojicon puppeting
EP3410178A1 (de) 2017-06-01 2018-12-05 Carl Zeiss Vision International GmbH Verfahren, vorrichtung und computerprogramm zum virtuellen anpassen einer brillenfassung
US11869150B1 (en) 2017-06-01 2024-01-09 Apple Inc. Avatar modeling and generation
US10636193B1 (en) * 2017-06-29 2020-04-28 Facebook Technologies, Llc Generating graphical representation of a user's face and body using a monitoring system included on a head mounted display
US10636192B1 (en) 2017-06-30 2020-04-28 Facebook Technologies, Llc Generating a graphical representation of a face of a user wearing a head mounted display
EP3425447B1 (de) 2017-07-06 2019-09-11 Carl Zeiss Vision International GmbH Verfahren, vorrichtung und computerprogramm zum virtuellen anpassen einer brillenfassung
WO2019014127A1 (en) 2017-07-10 2019-01-17 Magic Leap, Inc. METHOD AND SYSTEM FOR INTEGRATION OF ELECTRONIC SENSORS WITH A THERMAL COOLING SYSTEM
WO2019040669A1 (en) * 2017-08-22 2019-02-28 Silicon Algebra, Inc. METHOD FOR DETECTING EXPRESSIONS AND FACIAL EMOTIONS OF USERS
CN109426860A (zh) * 2017-08-23 2019-03-05 幻视互动(北京)科技有限公司 一种基于神经网络的mr混合现实信息处理方法及装置
CN107595301A (zh) * 2017-08-25 2018-01-19 英华达(上海)科技有限公司 智能眼镜以及基于情绪识别推送消息的方法
EP3684463A4 (de) 2017-09-19 2021-06-23 Neuroenhancement Lab, LLC Verfahren und vorrichtung für neuro-enhancement
CN111201771B (zh) * 2017-10-19 2022-08-30 索尼公司 电子仪器
US11432375B2 (en) 2017-10-31 2022-08-30 Adasky, Ltd. Protective window for resistive heating
US11252323B2 (en) * 2017-10-31 2022-02-15 The Hong Kong University Of Science And Technology Facilitation of visual tracking
US10870056B2 (en) * 2017-11-01 2020-12-22 Sony Interactive Entertainment Inc. Emoji-based communications derived from facial features during game play
US11717686B2 (en) 2017-12-04 2023-08-08 Neuroenhancement Lab, LLC Method and apparatus for neuroenhancement to facilitate learning and performance
CN108294739B (zh) * 2017-12-27 2021-02-09 苏州创捷传媒展览股份有限公司 一种测试用户体验的方法及其装置
US10643446B2 (en) 2017-12-28 2020-05-05 Cerner Innovation, Inc. Utilizing artificial intelligence to detect objects or patient safety events in a patient room
US10482321B2 (en) 2017-12-29 2019-11-19 Cerner Innovation, Inc. Methods and systems for identifying the crossing of a virtual barrier
US11318277B2 (en) 2017-12-31 2022-05-03 Neuroenhancement Lab, LLC Method and apparatus for neuroenhancement to enhance emotional response
CN110013230A (zh) * 2018-01-08 2019-07-16 曹亮 一种采用多个红外传感器的测温装置及方法
US11328533B1 (en) * 2018-01-09 2022-05-10 Mindmaze Holding Sa System, method and apparatus for detecting facial expression for motion capture
WO2019164266A1 (en) * 2018-02-23 2019-08-29 Samsung Electronics Co., Ltd. Electronic device for generating image including 3d avatar reflecting face motion through 3d avatar corresponding to face and method of operating same
US10643341B2 (en) 2018-03-22 2020-05-05 Microsoft Technology Licensing, Llc Replicated dot maps for simplified depth computation using machine learning
US10728518B2 (en) 2018-03-22 2020-07-28 Microsoft Technology Licensing, Llc Movement detection in low light environments
US10944957B2 (en) 2018-03-22 2021-03-09 Microsoft Technology Licensing, Llc Active stereo matching for depth applications
US10682099B2 (en) * 2018-03-23 2020-06-16 Abl Ip Holding Llc Training of an electroencephalography based control system
US10551921B2 (en) * 2018-03-23 2020-02-04 Abl Ip Holding Llc Electroencephalography control of controllable device
US10866638B2 (en) * 2018-03-23 2020-12-15 Abl Ip Holding Llc Neural control of controllable device
US10682069B2 (en) * 2018-03-23 2020-06-16 Abl Ip Holding Llc User preference and user hierarchy in an electroencephalography based control system
US10565720B2 (en) * 2018-03-27 2020-02-18 Microsoft Technology Licensing, Llc External IR illuminator enabling improved head tracking and surface reconstruction for virtual reality
CN108830286A (zh) * 2018-03-30 2018-11-16 西安爱生技术集团公司 一种侦察无人机动目标自动检测与跟踪方法
KR101907826B1 (ko) * 2018-04-12 2018-10-12 정관우 헤드마운트 디스플레이 장치
US11364361B2 (en) 2018-04-20 2022-06-21 Neuroenhancement Lab, LLC System and method for inducing sleep by transplanting mental states
US11069074B2 (en) * 2018-04-23 2021-07-20 Cognex Corporation Systems and methods for improved 3-D data reconstruction from stereo-temporal image sequences
DK180078B1 (en) 2018-05-07 2020-03-31 Apple Inc. USER INTERFACE FOR AVATAR CREATION
US10375313B1 (en) 2018-05-07 2019-08-06 Apple Inc. Creative camera
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
US11259710B2 (en) * 2018-05-16 2022-03-01 Mitsubishi Electric Research Laboratories, Inc. System and method for remote measurements of vital signs
US11054638B2 (en) 2018-06-13 2021-07-06 Reavire, Inc. Tracking pointing direction of device
GB2571147B (en) * 2018-06-13 2020-03-25 Braintrain2020 Ltd Apparatus for sensing
WO2020005268A1 (en) * 2018-06-29 2020-01-02 Hewlett-Packard Development Company, L.P. Thermal profile selections based on orientation
WO2020056418A1 (en) 2018-09-14 2020-03-19 Neuroenhancement Lab, LLC System and method of improving sleep
CN112771472B (zh) * 2018-10-15 2022-06-10 美的集团股份有限公司 提供实时产品交互协助的系统和方法
US10922936B2 (en) 2018-11-06 2021-02-16 Cerner Innovation, Inc. Methods and systems for detecting prohibited objects
WO2020097412A1 (en) * 2018-11-09 2020-05-14 Arizona Board Of Regents On Behalf Of Arizona State University Speech analysis devices and methods for identifying migraine attacks
WO2020101895A1 (en) 2018-11-12 2020-05-22 Magic Leap, Inc. Event-based camera with high-resolution frame output
WO2020101892A1 (en) 2018-11-12 2020-05-22 Magic Leap, Inc. Patch tracking image sensor
CN109670406B (zh) * 2018-11-25 2023-06-20 华南理工大学 一种结合心率与面部表情面向游戏用户的非接触式情感识别方法
US11190746B2 (en) * 2018-12-21 2021-11-30 Google Llc Real-time spacetime stereo using spacetime descriptors
TWI715903B (zh) * 2018-12-24 2021-01-11 財團法人工業技術研究院 動作追蹤系統及方法
US11107261B2 (en) * 2019-01-18 2021-08-31 Apple Inc. Virtual avatar animation based on facial feature movement
CN113711587A (zh) 2019-02-07 2021-11-26 奇跃公司 具有无源深度提取的轻型交叉显示设备
US10909357B1 (en) * 2019-02-15 2021-02-02 Snap Inc. Image landmark detection
CN109919876B (zh) * 2019-03-11 2020-09-01 四川川大智胜软件股份有限公司 一种三维真脸建模方法及三维真脸照相系统
US11346938B2 (en) 2019-03-15 2022-05-31 Msa Technology, Llc Safety device for providing output to an individual associated with a hazardous environment
CN113892127A (zh) * 2019-05-17 2022-01-04 奇跃公司 使用神经网络和角点检测器进行角点检测的方法和装置
CN111985270B (zh) * 2019-05-22 2024-01-05 中国科学院沈阳自动化研究所 一种基于梯度提升树的sEMG信号最优通道选择方法
US11786694B2 (en) 2019-05-24 2023-10-17 NeuroLight, Inc. Device, method, and app for facilitating sleep
US20220122379A1 (en) * 2019-06-27 2022-04-21 Hewlett-Packard Development Company, L.P. Two image facial action detection
US11954905B2 (en) * 2019-06-28 2024-04-09 Hewlett-Packard Development Company, L.P. Landmark temporal smoothing
CN110211689B (zh) * 2019-07-03 2023-07-14 成都时空穿梭智能科技有限公司 心理咨询智能机器人
WO2021021085A1 (en) * 2019-07-26 2021-02-04 Hewlett-Packard Development Company, L.P. Modification of projected structured light based on identified points within captured image
US11470017B2 (en) * 2019-07-30 2022-10-11 At&T Intellectual Property I, L.P. Immersive reality component management via a reduced competition core network component
WO2021050972A1 (en) * 2019-09-13 2021-03-18 The Regents Of The University Of Colorado, A Body Corporate Wearable system for automated, objective and continuous quantification of pain
KR102405416B1 (ko) * 2019-11-25 2022-06-07 한국전자기술연구원 Hmd를 착용한 사용자의 자세 추정 방법
US11128817B2 (en) 2019-11-26 2021-09-21 Microsoft Technology Licensing, Llc Parallax correction using cameras of different modalities
CN111008280B (zh) * 2019-12-04 2023-09-05 北京百度网讯科技有限公司 一种视频分类方法、装置、设备和存储介质
CN110881988B (zh) * 2019-12-05 2022-06-21 北京发光如星文化传播有限公司 能量检测的方法、装置、设备和介质
WO2021116816A1 (ja) * 2019-12-13 2021-06-17 株式会社半導体エネルギー研究所 電子機器
US11789527B1 (en) * 2019-12-17 2023-10-17 Snap Inc. Eyewear device external face tracking overlay generation
US11967018B2 (en) 2019-12-20 2024-04-23 Apple Inc. Inferred shading
US20230111692A1 (en) * 2020-01-23 2023-04-13 Utest App, Inc. System and method for determining human emotions
JP2023512238A (ja) * 2020-01-31 2023-03-24 マジック リープ, インコーポレイテッド 眼球運動測定査定のための拡張および仮想現実ディスプレイシステム
CN111428748B (zh) * 2020-02-20 2023-06-27 重庆大学 一种基于hog特征和svm的红外图像绝缘子识别检测方法
CN111401268B (zh) * 2020-03-19 2022-11-15 内蒙古工业大学 一种面向开放环境的多模态情感识别方法及装置
US11482049B1 (en) 2020-04-14 2022-10-25 Bank Of America Corporation Media verification system
CN111488850B (zh) * 2020-04-17 2022-07-12 电子科技大学 一种基于神经网络的老年人跌倒检测方法
EP4138663A4 (de) * 2020-04-20 2023-08-30 Magic Leap, Inc. Ausdrucksvorhersage mit bildbasierter bewegungsmetrik
US11921998B2 (en) 2020-05-11 2024-03-05 Apple Inc. Editing features of an avatar
US11475618B2 (en) * 2020-05-11 2022-10-18 Sony Interactive Entertainment Inc. Dynamic vision sensor for visual audio processing
DK202070625A1 (en) 2020-05-11 2022-01-04 Apple Inc User interfaces related to time
US20230206533A1 (en) * 2020-06-18 2023-06-29 Hewlett-Packard Development Company, L.P. Emotive avatar animation with combined user pose data
US20230240529A1 (en) * 2020-07-15 2023-08-03 Lifelens Technologies, Inc. Wearable sensor system configured for alerting first responders and local caregivers
US11771895B2 (en) * 2020-08-06 2023-10-03 The Feinstein Institutes For Medical Research Compact auricular stimulation device
CN111724571B (zh) * 2020-08-07 2022-11-04 新疆爱华盈通信息技术有限公司 智能手表、利用智能手表的测温方法、体温监测系统
CN112069954B (zh) * 2020-08-26 2023-12-19 武汉普利商用机器有限公司 一种活体微表情检测方法及系统
WO2022055502A1 (en) * 2020-09-14 2022-03-17 Hewlett-Packard Development Company, L.P. Head mounted display with reflective surface
US11706380B2 (en) * 2020-09-17 2023-07-18 Adasky, Ltd. Radiometric camera with black body elements for screening infectious disease carriers and method for calibrating a thermal camera having internal black body elements
US11159716B1 (en) 2020-09-21 2021-10-26 International Business Machines Corporation Photography assist using smart contact lenses
US11908233B2 (en) 2020-11-02 2024-02-20 Pinscreen, Inc. Normalization of facial images using deep neural networks
EP4002303A1 (de) * 2020-11-09 2022-05-25 Tata Consultancy Services Limited Detektion in echtzeit eines interessensbereichs in thermischen gesichtsbildern basierend auf einem heuristischen ansatz
US11513573B2 (en) * 2020-11-09 2022-11-29 Meta Platforms Technologies, Llc Active thermal management of a display panel
CN112507952B (zh) * 2020-12-21 2023-04-28 天津大学合肥创新发展研究院 自适应人体测温区域筛选方法及额头无遮挡区域提取方法
CN112603282A (zh) * 2020-12-25 2021-04-06 歌尔光学科技有限公司 一种体征数据获取设备、方法、装置及可读存储介质
US11500463B2 (en) 2020-12-30 2022-11-15 Imagine Technologies, Inc. Wearable electroencephalography sensor and device control methods using same
CN112798113B (zh) * 2021-02-08 2022-08-02 浙江大华技术股份有限公司 测温系统和方法
US11790694B1 (en) 2021-02-17 2023-10-17 Bank Of America Corporation Video player for secured video stream
US11594032B1 (en) 2021-02-17 2023-02-28 Bank Of America Corporation Media player and video verification system
US11928187B1 (en) 2021-02-17 2024-03-12 Bank Of America Corporation Media hosting system employing a secured video stream
US11527106B1 (en) 2021-02-17 2022-12-13 Bank Of America Corporation Automated video verification
US11361062B1 (en) 2021-03-02 2022-06-14 Bank Of America Corporation System and method for leveraging microexpressions of users in multi-factor authentication
US11468713B2 (en) 2021-03-02 2022-10-11 Bank Of America Corporation System and method for leveraging a time-series of microexpressions of users in customizing media presentation based on users# sentiments
US11714536B2 (en) 2021-05-21 2023-08-01 Apple Inc. Avatar sticker editor user interfaces
US11776190B2 (en) 2021-06-04 2023-10-03 Apple Inc. Techniques for managing an avatar on a lock screen
CN117813623A (zh) * 2021-06-11 2024-04-02 生命探索株式会社 情绪推定装置、情绪推定方法以及程序
US11941051B1 (en) 2021-06-24 2024-03-26 Bank Of America Corporation System for performing programmatic operations using an image-based query language
US11526548B1 (en) 2021-06-24 2022-12-13 Bank Of America Corporation Image-based query language system for performing database operations on images and videos
CN113409939B (zh) * 2021-07-01 2022-11-18 重庆医科大学 Copd呼吸监测装置
US11784975B1 (en) 2021-07-06 2023-10-10 Bank Of America Corporation Image-based firewall system
WO2023287425A1 (en) * 2021-07-16 2023-01-19 Hewlett-Packard Development Company, L.P. Identification of facial expression of head-mountable display wearer
KR102647730B1 (ko) * 2021-07-26 2024-03-14 서울대학교병원 워핑기술을 이용한 자폐증 환자의 상호작용 훈련 시스템 및 영상 워핑 모델 학습 방법
US20240070251A1 (en) * 2021-08-04 2024-02-29 Q (Cue) Ltd. Using facial skin micromovements to identify a user
WO2023048999A1 (en) * 2021-09-24 2023-03-30 Callisto Design Solutions Llc Systems and methods for measuring cardiac and respiratory signals
WO2023056356A1 (en) * 2021-09-30 2023-04-06 Canon U.S.A., Inc. Removal of head mounted display for real-time 3d face reconstruction
US11644678B1 (en) * 2021-11-09 2023-05-09 Sony Interactive Entertainment Inc. Barometric pressure sensor arrays for detecting presence and motion of objects for tracking or triggering a response
GB2621868A (en) * 2022-08-25 2024-02-28 Sony Interactive Entertainment Inc An image processing method, device and computer program
WO2024044900A1 (zh) * 2022-08-29 2024-03-07 华为技术有限公司 一种监测方法、装置及系统
US20240094811A1 (en) * 2022-09-16 2024-03-21 Zinn Labs, Inc. Tracking system using a differential camera with a co-aligned light source assembly
CN117297623B (zh) * 2023-11-24 2024-02-06 四川大学华西医院 心脏贴片传感装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6129673A (en) 1998-06-08 2000-10-10 Advanced Monitors, Corp. Infrared thermometer
US8360986B2 (en) 2006-06-30 2013-01-29 University Of Louisville Research Foundation, Inc. Non-contact and passive measurement of arterial pulse through thermal IR imaging, and analysis of thermal IR imagery

Family Cites Families (85)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
HU210829B (en) 1988-04-11 1995-08-28 Boczan Method for detecting, reducing or eliminating exhaustion of a driver, exhaustion sensing glasses and ear thermometer
FR2639212A1 (fr) 1988-11-18 1990-05-25 Hennson Int Dispositif de mesure et d'analyse de mouvements du corps humain ou de parties de celui-ci
US6121953A (en) 1997-02-06 2000-09-19 Modern Cartoons, Ltd. Virtual reality system for sensing facial movements
US6292685B1 (en) 1998-09-11 2001-09-18 Exergen Corporation Temporal artery temperature detector
DE29913602U1 (de) 1999-08-04 1999-11-25 Oculus Optikgeraete Gmbh Gerät zur Augenuntersuchung mit einer Scheimpflugkamera und einem Spaltprojektor zur Aufnahme von Schnittbildern eines Auges
US6996256B2 (en) 2000-06-08 2006-02-07 Honeywell International Inc. Detection system and method using thermal image analysis
US7127081B1 (en) * 2000-10-12 2006-10-24 Momentum Bilgisayar, Yazilim, Danismanlik, Ticaret, A.S. Method for tracking motion of a face
US6774869B2 (en) 2000-12-22 2004-08-10 Board Of Trustees Operating Michigan State University Teleportal face-to-face system
US7027621B1 (en) 2001-03-15 2006-04-11 Mikos, Ltd. Method and apparatus for operator condition monitoring and assessment
US6854879B2 (en) * 2001-04-19 2005-02-15 Honeywell International Inc. System and method using thermal image analysis for polygraph testing
US6771423B2 (en) 2001-05-07 2004-08-03 Richard Geist Head-mounted virtual display apparatus with a near-eye light deflecting element in the peripheral field of view
WO2003063102A2 (en) 2001-11-06 2003-07-31 Radian Inc. Physiomagnetometric inspection and surveillance system and method
US6837615B2 (en) 2002-03-19 2005-01-04 John Scott Newman Method of evaluating level of anxiety of person based on skin temperature
US8328420B2 (en) 2003-04-22 2012-12-11 Marcio Marc Abreu Apparatus and method for measuring biologic parameters
DE102004027443B3 (de) 2004-06-04 2005-07-21 Dräger Safety AG & Co. KGaA Messsystem für die berührungslose Körperkerntemperatur-Bestimmung
US7138905B2 (en) 2004-11-18 2006-11-21 Honeywell International Inc. Controlled environment thermal image detection system and methods regarding same
US7606392B2 (en) 2005-08-26 2009-10-20 Sony Corporation Capturing and processing facial motion data
KR101370985B1 (ko) 2005-10-24 2014-03-10 마시오 마크 아우렐리오 마틴스 애브리우 생물학적 파라미터들을 측정하기 위한 장치 및 방법
US20070248238A1 (en) 2005-12-13 2007-10-25 Abreu Marcio M Biologically fit wearable electronics apparatus and methods
EP2007271A2 (de) 2006-03-13 2008-12-31 Imotions - Emotion Technology A/S Detektion visueller aufmerksamkeit und emotionaler reaktion und anzeigesystem
US20080260212A1 (en) 2007-01-12 2008-10-23 Moskal Michael D System for indicating deceit and verity
US9410854B2 (en) 2007-03-15 2016-08-09 Koninklijke Philips N.V. Methods and devices for measuring core body temperature
US8463006B2 (en) 2007-04-17 2013-06-11 Francine J. Prokoski System and method for using three dimensional infrared imaging to provide detailed anatomical structure maps
US8149273B2 (en) 2007-11-30 2012-04-03 Fuji Xerox Co., Ltd. System and methods for vital sign estimation from passive thermal video
US20090221888A1 (en) 2008-03-03 2009-09-03 Ravindra Wijesiriwardana Wearable sensor system for environmental and physiological information monitoring and information feedback system
US20090237492A1 (en) 2008-03-18 2009-09-24 Invism, Inc. Enhanced stereoscopic immersive video recording and viewing
US8160311B1 (en) 2008-09-26 2012-04-17 Philip Raymond Schaefer System and method for detecting facial gestures for control of an electronic device
US8289443B2 (en) 2008-09-29 2012-10-16 Two Pic Mc Llc Mounting and bracket for an actor-mounted motion capture camera system
EP2233071A1 (de) 2009-03-27 2010-09-29 Koninklijke Philips Electronics N.V. Atmungsfeedbackvorrichtung
CN102413872A (zh) 2009-04-30 2012-04-11 麦德托尼克公司 以基于支持向量机的算法为基础的病人状态探测
US8334872B2 (en) 2009-05-29 2012-12-18 Two Pic Mc Llc Inverse kinematics for motion-capture characters
US8585588B2 (en) 2009-11-18 2013-11-19 Nohands, Llc Method and system for preventing virus-related obesity and obesity related diseases
US8964298B2 (en) 2010-02-28 2015-02-24 Microsoft Corporation Video display modification based on sensor input for a see-through near-to-eye display
US20130278631A1 (en) * 2010-02-28 2013-10-24 Osterhout Group, Inc. 3d positioning of augmented reality information
US8694899B2 (en) * 2010-06-01 2014-04-08 Apple Inc. Avatars reflecting user states
US20120062719A1 (en) 2010-09-09 2012-03-15 University Of Southern California Head-Mounted Photometric Facial Performance Capture
US8786698B2 (en) 2010-09-23 2014-07-22 Sony Computer Entertainment Inc. Blow tracking user interface system and method
US9348141B2 (en) 2010-10-27 2016-05-24 Microsoft Technology Licensing, Llc Low-latency fusing of virtual and real content
WO2012067282A1 (ko) * 2010-11-17 2012-05-24 (주)이지템 체온을 포함하는 휴대용 열화상 온도측정 장치 및 방법
US8888701B2 (en) 2011-01-27 2014-11-18 Valencell, Inc. Apparatus and methods for monitoring physiological data during environmental interference
US8573866B2 (en) 2011-02-03 2013-11-05 Jason R. Bond Head-mounted face image capturing devices and systems
US8786680B2 (en) 2011-06-21 2014-07-22 Disney Enterprises, Inc. Motion capture from body mounted cameras
KR101868597B1 (ko) * 2011-09-20 2018-06-19 삼성전자 주식회사 올바른 기기사용자세 유도 장치 및 방법
US9020185B2 (en) 2011-09-28 2015-04-28 Xerox Corporation Systems and methods for non-contact heart rate sensing
US9015084B2 (en) 2011-10-20 2015-04-21 Gil Thieberger Estimating affective response to a token instance of interest
US20130116591A1 (en) * 2011-11-04 2013-05-09 Alan C. Heller Systems and devices for real time health status credentialing
US9211069B2 (en) 2012-02-17 2015-12-15 Honeywell International Inc. Personal protective equipment with integrated physiological monitoring
US9185353B2 (en) 2012-02-21 2015-11-10 Xerox Corporation Removing environment factors from signals generated from video images captured for biomedical measurements
US20130241805A1 (en) 2012-03-15 2013-09-19 Google Inc. Using Convergence Angle to Select Among Different UI Elements
US9128522B2 (en) 2012-04-02 2015-09-08 Google Inc. Wink gesture input for a head-mountable device
US8855384B2 (en) 2012-06-20 2014-10-07 Xerox Corporation Continuous cardiac pulse rate estimation from multi-channel source video data
WO2013190678A1 (ja) 2012-06-21 2013-12-27 株式会社日立製作所 生体状態評価装置およびそのためのプログラム
US8768438B2 (en) 2012-06-25 2014-07-01 Xerox Corporation Determining cardiac arrhythmia from a video of a subject being monitored for cardiac function
GB201211703D0 (en) 2012-07-02 2012-08-15 Charles Nduka Plastic Surgery Ltd Biofeedback system
US9019174B2 (en) 2012-10-31 2015-04-28 Microsoft Technology Licensing, Llc Wearable emotion detection and feedback system
TW201424804A (zh) 2012-12-21 2014-07-01 Hsiu-Ying Sung 水中運動的使用者自我學習系統
US9370302B2 (en) * 2014-07-08 2016-06-21 Wesley W. O. Krueger System and method for the measurement of vestibulo-ocular reflex to improve human performance in an occupational environment
US9788714B2 (en) * 2014-07-08 2017-10-17 Iarmourholdings, Inc. Systems and methods using virtual reality or augmented reality environments for the measurement and/or improvement of human vestibulo-ocular performance
CN105592788A (zh) 2013-03-06 2016-05-18 塞罗拉公司 用于脑健康的多模态生理评估的形成因素
US9996551B2 (en) 2013-03-15 2018-06-12 Huntington Ingalls, Incorporated System and method for determining and maintaining object location and status
US10365716B2 (en) 2013-03-15 2019-07-30 Interaxon Inc. Wearable computing apparatus and method
US9681186B2 (en) 2013-06-11 2017-06-13 Nokia Technologies Oy Method, apparatus and computer program product for gathering and presenting emotional response to an event
TWI549649B (zh) 2013-09-24 2016-09-21 廣達電腦股份有限公司 頭戴式系統
US20150148618A1 (en) 2013-09-27 2015-05-28 Krzysztof Sitko Physiological Monitor and Methods for Placement and Wear
US9913587B2 (en) 2013-11-01 2018-03-13 Cardiio, Inc. Method and system for screening of atrial fibrillation
WO2015062969A1 (en) * 2013-11-01 2015-05-07 Koninklijke Philips N.V. System and method for determining vital sign information of a subject
US9836122B2 (en) * 2014-01-21 2017-12-05 Osterhout Group, Inc. Eye glint imaging in see-through computer display systems
US9672416B2 (en) * 2014-04-29 2017-06-06 Microsoft Technology Licensing, Llc Facial expression tracking
AU2015297035B2 (en) 2014-05-09 2018-06-28 Google Llc Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects
US9635222B2 (en) * 2014-08-03 2017-04-25 PogoTec, Inc. Wearable camera systems and apparatus for aligning an eyewear camera
AU2015302050B2 (en) 2014-08-10 2020-01-30 Autonomix Medical, Inc. Ans assessment systems, kits, and methods
US11269891B2 (en) * 2014-08-21 2022-03-08 Affectomatics Ltd. Crowd-based scores for experiences from measurements of affective response
US10345768B2 (en) 2014-09-29 2019-07-09 Microsoft Technology Licensing, Llc Environmental control via wearable computing system
EP3030151A4 (de) 2014-10-01 2017-05-24 Nuralogix Corporation System und verfahren zur erkennung unsichtbarer menschlicher gefühle
WO2016057633A1 (en) 2014-10-08 2016-04-14 Revealix, Inc. Automated systems and methods for skin assessment and early detection of a latent pathogenic bio-signal anomaly
WO2016095057A1 (en) 2014-12-19 2016-06-23 Sulon Technologies Inc. Peripheral tracking for an augmented reality head mounted device
US9904054B2 (en) 2015-01-23 2018-02-27 Oculus Vr, Llc Headset with strain gauge expression recognition system
DE102016101643A1 (de) 2015-01-29 2016-08-04 Affectomatics Ltd. Filterung von durch bias verzerrten messwerten der affektiven reaktion
US10945654B2 (en) 2015-02-14 2021-03-16 Massachusetts Institute Of Technology Methods, systems, and apparatus for self-calibrating EEG neurofeedback
JP6887953B2 (ja) 2015-03-16 2021-06-16 マジック リープ,インコーポレイティド 健康を損う疾病を診断して治療する方法及びシステム
US9910275B2 (en) * 2015-05-18 2018-03-06 Samsung Electronics Co., Ltd. Image processing for head mounted display devices
CA2986144A1 (en) 2015-05-20 2016-11-24 Magic Leap, Inc. Tilt shift iris imaging
US11638550B2 (en) 2015-07-07 2023-05-02 Stryker Corporation Systems and methods for stroke detection
US10169917B2 (en) * 2015-08-20 2019-01-01 Microsoft Technology Licensing, Llc Augmented reality
DE112016004437T5 (de) * 2015-09-29 2018-07-05 BinaryVR, Inc. Head-Mounted-Display mit Gesichtsausdruck-Erkennungsfähigkeit

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6129673A (en) 1998-06-08 2000-10-10 Advanced Monitors, Corp. Infrared thermometer
US8360986B2 (en) 2006-06-30 2013-01-29 University Of Louisville Research Foundation, Inc. Non-contact and passive measurement of arterial pulse through thermal IR imaging, and analysis of thermal IR imagery

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
Graf, A., Arndt, M., & Gerlach, G. (2007), Seebeck’s effect in micromachined thermopiles for infrared detection. A review, Proc. Estonian Acad. Sci. Eng, 13(4), 338–353
Pavlidis, I., Levine, J., & Baukol, S. (2000), Thermal imaging for anxiety detection, In Computer Vision Beyond the Visible Spectrum: Methods and Applications, 2000. Proceedings. IEEE Workshop on (pp. 104–109)
Pezzotti, G., Coppa, P., & Liberati, F. (2006), Pyrometer at low radiation for measuring the forehead skin temperature, Revista Facultad de Ingeniería Universidad de Antioquia, (38), 128–135
Shastri, D., Papadakis, M., Tsiamyrtzis, P., Bass, B., & Pavlidis, I. (2012), Perinasal imaging of physiological stress and its affective potential, Affective Computing, IEEE Transactions on, 3(3), 366–378
Tsiamyrtzis, P., Dowdall, J., Shastri, D., Pavlidis, I. T., Frank, M. G., & Ekman, P. (2007), Imaging facial physiology for the detection of deceit, International Journal of Computer Vision, 71(2), 197–214
Yang, M., Liu, Q., Turner, T., & Wu, Y (2008), Vital sign estimation from passive thermal video, In Computer Vision and Pattern Recognition, 2008 (pp. 1–8), CVPR 2008 IEEE

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113197585A (zh) * 2021-04-01 2021-08-03 燕山大学 一种神经肌肉信息交互模型构建及参数辨识优化方法
CN113197585B (zh) * 2021-04-01 2022-02-18 燕山大学 一种神经肌肉信息交互模型构建及参数辨识优化方法

Also Published As

Publication number Publication date
US9867546B2 (en) 2018-01-16
US20160363483A1 (en) 2016-12-15
US10376153B2 (en) 2019-08-13
US10165949B2 (en) 2019-01-01
DE102016110903A1 (de) 2016-12-15
US20190029528A1 (en) 2019-01-31
US20160360970A1 (en) 2016-12-15

Similar Documents

Publication Publication Date Title
DE102016110902A1 (de) Head-Mounted-Devices zur Erfassung thermischer Messwerte
DE102016118773A1 (de) Systeme zur Erfassung von thermischen Messwerten des Gesichts
US20170035344A1 (en) Detection of an Allergic Reaction Using Thermal Measurements of the Face
Cardone et al. New frontiers for applications of thermal infrared imaging devices: Computational psychopshysiology in the neurosciences
US11154203B2 (en) Detecting fever from images and temperatures
Klaessens et al. Development of a baby friendly non-contact method for measuring vital signs: first results of clinical measurements in an open incubator at a neonatal intensive care unit
GB2598245A (en) Clip-on device with inward-facing visible-light camera
US10216981B2 (en) Eyeglasses that measure facial skin color changes
Krzywicki et al. A non-contact technique for measuring eccrine sweat gland activity using passive thermal imaging
US20220238220A1 (en) Headset integrated into healthcare platform
Ring et al. Detecting fever in Polish children by infrared thermography
Hamedani et al. Spatio-temporal filtering of thermal video sequences for heart rate estimation
CN111387957B (zh) 一种非接触式的体温与呼吸率联合检测方法
Ruminski et al. Estimation of respiration rate using an accelerometer and thermal camera in eGlasses
Shu et al. Non-contact measurement of human respiration using an infrared thermal camera and the deep learning method
JP7051083B2 (ja) 心理状態判定方法、判定装置、判定システムおよび判定プログラム
JP6189486B2 (ja) 脳活動推定装置
Znamenskaya et al. Thermography-based remote detection of psycho-emotional states
Ghanadian et al. Non-contact heart rate monitoring using multiple RGB cameras
Dinculescu et al. Combined thermal infrared and visual spectrum imaging novel methodology for astronauts' psychophysiological assessment. Verification for respiration rate determination
Hejda et al. Motion capture camera system for measurement of head and shoulders position
Huang et al. Improvement of Environment and Camera Setting on Extraction of Heart Rate Using Eulerian Video Magnification
Spandana et al. Measurement of Physiological Parameters Using Video Processing
US20230240606A1 (en) Monitoring Psychomotor Performance Based on Eyelid Tracking Information
Krzywicki et al. Analysis of facial thermal variations in response to emotion: eliciting film clips

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: BECKER, KURIG, STRAUS, DE

Representative=s name: BECKER-KURIG-STRAUS PATENTANWAELTE PARTNERSCHA, DE

Representative=s name: BECKER & KURIG PARTNERSCHAFT PATENTANWAELTE MB, DE

Representative=s name: BECKER & KURIG PARTNERSCHAFT PATENTANWAELTE PA, DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee