DE212018000158U1 - Augenblickverfolgung - Google Patents

Augenblickverfolgung Download PDF

Info

Publication number
DE212018000158U1
DE212018000158U1 DE212018000158.8U DE212018000158U DE212018000158U1 DE 212018000158 U1 DE212018000158 U1 DE 212018000158U1 DE 212018000158 U DE212018000158 U DE 212018000158U DE 212018000158 U1 DE212018000158 U1 DE 212018000158U1
Authority
DE
Germany
Prior art keywords
eye
image
wearer
reflection
wearable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE212018000158.8U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Analog Devices International ULC
Original Assignee
Analog Devices Global ULC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Analog Devices Global ULC filed Critical Analog Devices Global ULC
Publication of DE212018000158U1 publication Critical patent/DE212018000158U1/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/02Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes by tracing or scanning a light beam on a screen
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0693Calibration of display systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Computer Hardware Design (AREA)
  • Optics & Photonics (AREA)
  • Eye Examination Apparatus (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Position Input By Displaying (AREA)

Abstract

Wearable-System zur Augenblickverfolgung, das nativen Inhalt nutzt, wobei das Wearable-System Folgendes aufweist:eine Anzeigevorrichtung mit einer nativen Auflösung zum Projizieren eines Bilds zu einem Auge eines Trägers;ein photoempfindliches Element, das im Sichtfeld des Trägers von dem projizierten Bild angeordnet ist, zum Empfangen einer verzerrten Reflexion des Bilds von nativen Inhalt von dem Auge des Benutzers; undeinen Prozessor, ausgebildet zum Bestimmen einer Augenblickstellung auf der Grundlage der verzerrten Reflexion des Bilds.

Description

  • TECHNISCHES GEBIET
  • Diese Offenbarung betrifft Bestimmen der Augenblickrichtung zumindest teilweise auf der Grundlage von Reflexionen von einem Auge.
  • HINTERGRUND
  • Augenverfolgungsanwendungen verwenden die Stellung des Auges zum Bestimmen einer Richtung, in welche ein Benutzer schaut. Dies ist in vielen Anwendungen von Nutzen, wie etwa für Headsets für Virtuelle Realität (VR) und Erweiterte Realität (AR - Augmented Reality). Visionsbasierte Lösungen, bei denen ein Sensor (z. B. eine Kamera oder ein Satz von Kameras) in dem Rahmen enthalten ist, können zum Bestimmen des Augenblicks verwendet werden. Ein Profil des Auges kann anhand von Bildern des Auges, die mit Kameras oder ähnlichen Sensoren aufgenommen werden, rekonstruiert werden. Alternativ können Leuchtdioden (LEDs) im nahen Infrarot verwendet werden zum Erzeugen eines Beleuchtungsmusters zum Untersuchen der Position des Glitzerns auf dem Auge und dann Ableiten der Blickrichtung.
  • KURZDARSTELLUNG
  • Aspekte der Ausführungsformen richten sich auf ein Wearable-System, aufweisend eine projizierende Oberfläche zum Projizieren eines Bilds zu einem Auge eines Trägers; ein photoempfindliches Element zum Empfangen einer verzerrten Reflexion des Bilds von dem Auge des Benutzers; und einen Prozessor zum Bestimmen einer Augenblickstellung auf der Grundlage der verzerrten Reflexion des Bilds.
  • Aspekte der Ausführungsformen richten sich auf ein Wearable-Gerät, aufweisend ein Mittel zum Projizieren eines Bild zu einem Auge eines Trägers; ein Mittel zum Detektieren einer verzerrten Reflexion des Bilds von dem Auge des Trägers; und ein Prozessormittel zum Bestimmen einer Augenblickstellung, zumindest teilweise auf der Grundlage der verzerrten Reflexion des projizierten Bilds von dem Auges des Trägers.
  • Aspekte der Ausführungsformen richten sich auf ein Verfahren, aufweisend Projizieren einer Form von einer Anzeigevorrichtung; Empfangen einer verzerrten Reflexion der projizierten Form von einem Anteil eines Auges eines Benutzers; und Identifizieren einer Augenblickrichtung, zumindest teilweise auf der Grundlage der verzerrten Reflexion des projizierten Bilds.
  • Figurenliste
    • 1 ist ein schematisches Diagramm einer beispielhaften Systemarchitektur für Augenblickverfolgung, gemäß Ausführungsformen der vorliegenden Offenbarung.
    • 2A ist ein schematisches Diagramm einer ersten Scanstellung eines beispielhaften Kalibrierprozesses, gemäß Ausführungsformen der vorliegenden Offenbarung.
    • 2B ist ein schematisches Diagramm einer ersten Scanstellung eines beispielhaften Kalibrierprozesses, gemäß Ausführungsformen der vorliegenden Offenbarung.
    • 2C ist ein schematisches Diagramm eines beispielhaften Kalibrierprozesses, gemäß Ausführungsformen der vorliegenden Offenbarung.
    • 3 ist ein schematisches Diagramm der Systemarchitektur von 1, das eine Änderung der Augenstellung veranschaulicht, gemäß Ausführungsformen der vorliegenden Offenbarung.
    • 4A-B sind schematische Diagramme der Systemarchitektur von 1, die Beispiele für Einfallswinkel und Reflexionen veranschaulichen, gemäß Ausführungsformen der vorliegenden Offenbarung.
    • 5 ist ein schematisches Diagramm einer Hornhaut, die Licht von einer Punktquelle auf einer Anzeigevorrichtung zu einem Punkt auf einer Anzeigevorrichtung reflektiert, gemäß Ausführungsformen der vorliegenden Offenbarung.
    • 6A ist ein Diagramm, das ein Beispiel für Reflexionen eines Bildschirms von einer Hornhaut veranschaulicht, gemäß Ausführungsformen der vorliegenden Offenbarung.
    • 6B ist ein Diagramm, das ein weiteres Beispiel für Reflexionen eines Bildschirms von einer Hornhaut veranschaulicht, gemäß Ausführungsformen der vorliegenden Offenbarung.
    • 7 ist ein Prozessflussdiagramm zum Bestimmen einer Augenblickstellung, gemäß Ausführungsformen der vorliegenden Offenbarung.
    • 8 ist ein Prozessflussdiagramm zum Verfolgen eines Augenblicks, gemäß Ausführungsformen der vorliegenden Offenbarung.
    • 9 ist ein schematisches Diagramm eines Beispiels für ein Virtuelle-Realität-Headset, gemäß Ausführungsformen der vorliegenden Offenbarung.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Aspekte der Ausführungsformen richten sich auf ein System, das einen Photodetektor, einen Satz von Photodetektoren und/oder ein Kamerasystem zur Augenverfolgung aufweist. In einer ersten Beispielanwendung kann eine Umgebung für Virtuelle Realität (VR) (z. B. ein VR-Headset) einen Anzeigebildschirm aufweisen, der visuelle Informationen für einen Träger bereitstellen kann. Ein Beispiel-VR-Headset ist ferner in 9 beschrieben. Das VR-Headset kann die Augen eines Trägers abdecken. Das VR-Headset kann einen Anzeigebildschirm beinhalten, der es dem Träger erlaubt, Bilder zu sehen, die durch das VR-Headset angezeigt werden. Das VR-Headset kann auch eine Kamera, einen Photodetektor (oder ein Array von Photodetektoren) oder andere Arten von Lichtsensor aufweisen, der Licht detektieren kann, das von den Augen des Trägers reflektiert wird.
  • Die Reflexionen der Anzeigevorrichtung und/oder die Reflexionen von der Anzeigevorrichtung (z. B. angezeigte Objekte) können von der Oberfläche des Auges detektiert werden. Wenn sich die Augenblickstellung ändert, verschiebt sich die Reflexion der auf der Anzeigevorrichtung gezeigten Objekte oder der Anzeigevorrichtung selbst, da sich der Einfallswinkel zwischen der Hornhautoberfläche und der Anzeigevorrichtung ändert.
  • Aspekte der Ausführungsformen verwenden das reflektierte Bild eines Anzeigebildschirms eines VR-Headsets (z. B. das VR-Headset), um eine Kalibrierung ohne zusätzliche Leuchtdioden (LEDs) und extra Stromverbrauch durchzuführen. Das System kann einen Bildsensor mit einem hochdynamischen Empfindlichkeitsbereich (und/oder einer logarithmischen Empfindlichkeit) verwenden, der einen großen Dynamikbereich liefert und die Detektion der Hornhautreflexion des Bildschirms erleichtert.
  • Bei Ausführungsformen können Frames mit einfachen Festmustern in den durch den VR-Headset-Bildschirm angezeigten Videostrom eingesetzt werden. Die Festmuster können durch den Bildsensor detektiert werden, der für Kalibrierung verwendet werden kann. Diese Muster können in dem sichtbaren Bereich des Spektrums liegen, werden aber von dem Benutzer nicht bemerkt, da diese nur für Millisekunden oder weniger eingeschaltet sein werden. Das Einsetzen dieser Muster kann zufällig sein, von dem Augenverfolgungssystem angefordert werden und es kann mit dem Videoprojektionssubsystem synchronisiert sein oder auch nicht.
  • Bei einer anderen Ausführungsform können wir Einsetzen von Festmustern vermeiden und die Kenntnis verwenden, die wir über das auf den VR- oder AR-Brillen angezeigte Bild haben. Ein Beispiel wäre Verwendung der bekannten Größe des Rahmens der in der AR-Anwendung dargestellten Informationen.
  • 1 ist ein schematisches Diagramm einer beispielhaften Systemarchitektur 100 für Augenblickverfolgung, gemäß Ausführungsformen der vorliegenden Offenbarung. Die Beispielsystemarchitektur 100 kann ein Virtuelle-Realität-Headset oder eine andere Systemarchitektur sein, die einen Anzeigebildschirm 102 aufweist. Der Anzeigebildschirm 102 kann Bilder für einen Benutzer/Träger anzeigen. Der Anzeigebildschirm 102 kann sich bei einer bekannten Distanz von dem Träger, oder insbesondere, von einem Auge des Trägers befinden. Die bekannte Distanz kann im Falle von VR-Headset-Implementationen und AR-Headset-Implementationen eine im Wesentlichen feste Distanz vom Träger sein.
  • Die Systemarchitektur 100 kann einen Bildsensor 104 aufweisen. Der Bildsensor 104 kann Reflexionen vom Auge 106 detektieren. Der Bildsensor kann eine logarithmische Empfindlichkeit aufweisen, die einen großen Dynamikbereich liefert und eine Detektion einer Hornhautreflexion des Anzeigebildschirms 102 ohne dedizierte Beleuchtung erleichtert. Das Auge 106 weist eine Hornhaut 108 auf. Die Hornhaut 108 kann von dem Anzeigebildschirm 102 emittiertes Licht reflektieren. Das reflektierte Licht kann durch den Bildsensor 104 detektiert werden. Ein Prozessor 110 kann die Formen verwenden, wie von der Hornhaut 108 reflektiert, zum Bestimmen von deren Position und daher der Richtung, in die das Auge zeigt (d. h. eine Augenblickrichtung).
  • Vom Anbeginn kann eine Kalibrierung verwendet werden, um die Geometrie der Systemarchitektur 100 im Hinblick auf die externe Welt in einer AR-Anwendung zu beziehen und die Auswirkungen der kleinen Geometrieänderungen in dem System sowohl in AR- als auch in VR-Anwendungen zu kalibrieren. Kalibrierung erlaubt eine schnelle, autonome, unüberwachte Neukalibrierung zu beliebiger Zeit, wenn ein Benutzer das Headset wieder aufsetzt oder es während deren Verwendung Brillenbewegungen gibt. Anders ausgedrückt kann der hier beschriebene Kalibrierungsprozess beim Aufstarten für jeden Träger durchgeführt werden und kann periodisch (oder bei Bedarf) während des Betriebs des Headsets durchgeführt werden.
  • 2A-2C sind schematische Diagramme eines beispielhaften Kalibrierprozesses, gemäß Ausführungsformen der vorliegenden Offenbarung. Der Kalibrierungsprozess verwendet dieselbe oder eine ähnliche Systemarchitektur, wie die in 1 gezeigte. Die Anzeigevorrichtung 102 kann einen einzelnen Punkt 202 für einen Träger anzeigen, der für die Dauer der Kalibrierung auf den einzelnen Punkt 202 blicken muss. Eine Referenzlinie oder eine andere Form wird über den Bildschirm gescannt, während der Augenblick auf den Punkt 202 fixiert ist. Scannen kann durch Erzeugen eines (strahlend farbigen oder weißen) Linienmusters 204 auf dem (schwarzen oder dunklen) Bildschirm 102 und Bewegen des Linienmusters 204 über den Bildschirm 102 hinweg durchgeführt werden. Das durch das Linienmuster 204 emittierte Licht kann von der Hornhaut 108 des Auges 106 (der Prozess kann für jedes Auge des Trägers durchgeführt werden) wegreflektiert werden. Reflexionen 204' des Linienmusters 204 werden durch den Sensor 104 detektiert, wenn das Linienmuster 204 über den Bildschirm 102 scannt. Beispielsweise kann die Reflexion 204' durch den Sensor 104 detektiert werden. Bei Ausführungsformen kann eine Reflexion 202' von Blickpunkt 204 auch durch den Sensor 104 detektiert werden. Ein Prozessor, wie etwa der Prozessor 110 kann eine 3D-Struktur des Auges ausbilden, wenn es auf den Blickpunkt 202 blickt. Durch Hinzufügen von mehr Blickpunkten kann die Genauigkeit verbessert werden. Beispielsweise kann der Träger für einen ersten Kalibrierungszyklus zuerst auf einen ersten Blickpunkt blicken. Dann kann der Träger auf einen zweiten Blickpunkt blicken und ein Linienmuster kann über die Anzeigevorrichtung gescannt werden. Von dem Auge reflektierte Reflexionen des Linienmusters, während das Auge auf den zweiten Blickpunkt blickt (z. B. befindet sich das Auge in einer zweiten Blickstellung), können durch den Sensor 104 detektiert werden. Der Prozessor kann aus den detektierten Reflexionen der Linienmuster für die zweite Augenblickstellung eine 3D-Struktur ausbilden. Dieser Prozess kann für so viele Blickpunkte wie implementiert sind, wiederholt werden (z. B. auf der Grundlage eines durch die Implementationswahl gewünschten Genauigkeitsniveaus).
  • Die 3D-Struktur des Auges kann als eine Grundlinie für Kalibrierungszwecke verwendet werden. Die Augenoberflächenkonturen können kartiert werden und die Konturen können unter Verwendung des Blickmusters und gescannter Muster mit einer Augenstellung korreliert werden.
  • Bei Ausführungsformen kann ein zweidimensionales Muster verwendet werden, im Gegensatz zu (oder zusätzlich zu) einem linearen Muster. Ein zweidimensionales Muster kann eine rechteckige Form sein, die in Abhängigkeit von der Augenblickstellung verzerrt ist. Die Verzerrung eines rechteckigen Musters kann mit einer Augenblickstellung korreliert werden. Das System kann darüber lernen, wie das rechteckige Muster verzerrt wird und solche Verzerrungen können zum Trainieren des Systems verwendet werden. Andere Muster können ebenfalls verwendet werden.
  • 3 ist ein schematisches Diagramm der Systemarchitektur von 1, das eine Änderung der Augenstellung veranschaulicht, gemäß Ausführungsformen der vorliegenden Offenbarung. 3 zeigt das Auge 106 in einer ersten Stellung 302. In der ersten Stellung 302 kann die Hornhaut 108 Licht 304 von der Anzeigevorrichtung 102 an einem Punkt 306 auf oder nahe der Hornhaut 108 (d. h. die Lederhaut ist mit der Hornhaut kontinuierlich) empfangen. Das Licht 304 wird zu einem ersten Punkt 322 auf dem Bildsensor 104 reflektiert (gezeigt als reflektiertes Licht 304'). Das reflektierte Licht 304' kann in ein Bild, das den Bildschirm 104 repräsentiert, aufgelöst werden und die Form des aufgelösten Bilds kann zum Bestimmen einer Augenblickstellung verwendet werden.
  • Wenn sich die Augenblickstellung in eine zweite Stellung 308 ändert, trifft Licht 310, das von der Anzeigevorrichtung 102 emittiert wird auf einen Punkt 312 auf oder nahe der Hornhaut 108 auf. Reflektiertes Licht 310' wird am Bildsensor 104 an einem Punkt 324, der sich vom Punkt 322 unterscheidet, empfangen. Das empfangene reflektierte Licht 310' kann in ein Bild des Anzeigebildschirms 102 aufgelöst werden und die Form des aufgelösten Bilds kann zum Bestimmen einer anderen Augenblickstellung verwendet werden.
  • 4A ist ein schematisches Diagramm der Systemarchitektur von 1, das Beispiele für Einfallswinkel und Reflexionen veranschaulicht, gemäß Ausführungsformen der vorliegenden Offenbarung. 4B ist ein schematisches Diagramm einer Nahansicht der Systemarchitektur von 4A, das Beispiele für Einfallswinkel und Reflexionen veranschaulicht, gemäß Ausführungsformen der vorliegenden Offenbarung. Licht von der Anzeigevorrichtung 102, das den Bildschirmrahmen, eine angezeigte Szenerie, einen oder mehrere Kalibrierungspunkte usw. repräsentiert, wird von einem Anzeigebildschirm 102 (oder einer reflektierenden AR-Linse) emittiert, der sich in einer bekannten Distanz von dem Träger befindet (mit einem gewissen prozentualen Fehler). Ein Sensor 104 befindet sich in einer bekannten Distanz von dem Träger und von der Anzeigevorrichtung 102. Licht, wie etwa das Licht 402 oder das Licht 404, wird von der Anzeigevorrichtung 102 emittiert. Da die Hornhaut 108 eine Sphäre ist oder nahezu sphärisch ist (in einer 2D-Vereinfachung als ein Kreis gezeigt), weisen einfallende und reflektierte Lichtstrahlen denselben Winkel (α) bezüglich einer Linie (L) von dem Zentrum des Kreises zu dem Einfallspunkt auf. Das reflektierte Licht 402' und 404' wird an dem Sensor 104 unter einem bekannten Winkel (β1 und β2) relativ zu einer Normalen zu dem Sensor empfangen, nachdem es auf der Hornhaut 108 reflektiert wurde. Die Einfallswinkel β1 und β2 sind ausführlicher in 4B gezeigt.
  • 5 ist ein schematisches Diagramm einer Hornhaut 108, die Licht von einer Punktquelle 502 auf einer Anzeigevorrichtung zu einem Punkt 504 auf einem Bildsensor reflektiert, gemäß Ausführungsformen der vorliegenden Offenbarung. 5 stellt physiometrisch ein Beispielszenarium zum Auflösen einer Form und Größe der Reflexion von der Hornhaut 108 bereit. Eine Beziehung zwischen dem Winkel der Lichtemission a und dem Winkel des Lichtempfangs an dem Bildsensor β kann folgendermaßen bestimmt werden:
    90 α η = 90 β + η α = β 2 η
    Figure DE212018000158U1_0001
  • Diese Beziehungen für das α und das β kann weiter in räumliche Dimensionen aufgelöst werden:
    sin ( α ) d 1 sin ( β ) d 2 = Δ y
    Figure DE212018000158U1_0002

    cos ( α ) d 1 + cos ( β ) d 2 = Δ x
    Figure DE212018000158U1_0003

    sin ( β ) d 2 + cos ( η ) R = Y
    Figure DE212018000158U1_0004

    cos ( β ) d 2 + sin ( η ) R = X
    Figure DE212018000158U1_0005
  • Der Bildsensorpunkt kann als ein Ursprung (0,0) angesehen werden. Eine Augenblickverschiebung kann den Fokus der Hornhaut auf einen Punkt (X,Y) platzieren. Der Wert von R kann durch einen Wert von zwischen 6 und 7 mm, wie etwa 6,7 mm angenähert werden.
  • Dieses Beispiel nimmt eine einzige Punktquelle von Lichtemission von der Anzeigevorrichtung 104 an. Die Beziehungen können für mehr als eine Punktquelle von Lichtemission auf eine ähnliche Weise aufgelöst werden und können Auflösung verschiedener Aspekte des aufgelösten, aus dem empfangenen reflektierten Licht erzeugten Bilds verbessern.
  • Ein 3D-Modell des Auges kann gebildet werden, um die Augenblickstellung zu bestimmen (z. B. auf der Grundlage einer Korrelation aus der Kalibrierung).
  • 6A ist ein Diagramm 600, das Beispielbilder von Reflexionen eines Bildschirms von einer Hornhaut veranschaulicht, gemäß Ausführungsformen der vorliegenden Offenbarung. Wie zuvor erwähnt wurde kann eine Reflexion eines Anzeigebildschirms von einer Hornhaut 602 zum Bilden eines Bildes 604 des Anzeigebildschirms (oder einer auf dem Anzeigebildschirm gezeigten Szene oder anderen Anzeigebildschirmmerkmalen, wie etwa einem Rahmen des Bildschirms) verwendet werden. In Bildern 601a-601c ist das Auge gezeigt, wie es seinen Blick auf der Seite nach rechts bewegt. In Bild 601a blickt das Auge beispielsweise im Wesentlichen nach vorne. Das Anzeigebildschirmbild 604 kann eine Form aufweisen, die anzeigt, dass das Auge nach vorne schaut. In Bild 601b hat sich die Augenblickstellung zur Linken des Trägers und zur Rechten des Beobachters verschoben. Das Anzeigebildschirmbild 604b wird als sich vom Bild 604a unterscheidend gezeigt. Die Form des Bilds 604b kann auf eine ähnliche Weise wie die in 4A-B und 5 charakterisiert werden, um die Augenblickstellung zu bestimmen. Gleichermaßen hat sich in Bild 601c die Augenblickstellung weiter zur Linken des Trägers und zur Rechten des Beobachters verschoben. Das Anzeigebildschirmbild 604c wird als sich von den Bildern 604a und 604b unterscheidend gezeigt.
  • Die Blickrichtung kann dadurch identifiziert werden, wie ein rechteckiger Rahmen (z. B. ein Rahmen einer Anzeigevorrichtung oder ein angezeigtes Bild) verzerrt wird. In Abhängigkeit von der Krümmung des Auges im Reflexionsgebiet wird sich die Verzerrung des rechteckigen Rahmens unterscheiden (wie oben in 6A beschrieben wurde). Die Verzerrung kann verwendet werden zum Erhalten der Blickrichtung und/oder zum Trainieren eines Systems.
  • 6B ist ein Diagramm 650, das ein Beispiel für Reflexionen eines Bildschirms von einer Hornhaut veranschaulicht, gemäß Ausführungsformen der vorliegenden Offenbarung. Zusätzlich zur Abbildung der Reflexion des Anzeigebildschirms können andere Reflexionen zum Charakterisieren der Richtung des Augenblicks verwendet werden. Im Bild 651a ist beispielsweise eine Reflexion des Umrisses der Hornhaut 602 in ein Bild 656a aufgelöst. Das Umrissbild 656a kann verwendet werden zum Vergleichen der relativen Position des Anzeigebilds 654a. Eine Distanz 660 zwischen dem Umrissbild 656a und dem Bild des Anzeigebildschirms 654a kann bestimmt werden, um eine Richtung des Augenblicks zu identifizieren. In Bild 651b hat sich der Augenblick zur Rechten des Trägers und zur Linken des Beobachters verschoben. Die Distanz 662 zwischen dem Umrissbild 656b und dem Anzeigebildschirmbild 654b hat abgenommen. Gleichermaßen hat sich in Bild 651c der Augenblick zur Rechten des Trägers und zur Linken des Beobachters verschoben. Die Distanz 664 zwischen dem Umrissbild 656c und dem Anzeigebildschirmbild 654c hat weiter abgenommen. Die relative Position der Reflexionen des Anzeigebildschirms gegenüber den Umrissbildern kann zum Erhalten der Augenblickrichtung verwendet werden.
  • 7 ist ein Prozessflussdiagramm zum Bestimmen einer Augenblickrichtung, gemäß Ausführungsformen der vorliegenden Offenbarung. Vom Beginn an kann ein Bild auf einem Bildschirm angezeigt werden (702). Der Bildschirm kann ein Anzeigebildschirm eines VR-Headsets, eines AR-Headsets, eines Computerbildschirms, eines Smartphones usw. sein. Das Bild kann ein Kalibrierungsbild, ein derzeitiges VR-Bild oder ein anderes Bild sein. Ein Bildsensor, wie etwa der einer Kamera oder eines anderen Bildgebungssystems kann eine Reflexion des von dem Anzeigebildschirm emittierten Lichts, das von einer Hornhaut eines Auges des Benutzers/Trägers reflektiert wird, detektieren (704). Eine Form des detektierten reflektierten Lichts kann in ein Bild aufgelöst werden (706). Eine Augenblickrichtung kann zumindest teilweise auf der Grundlage der Form des detektierten reflektierten Lichts bestimmt werden (708).
  • 8 ist ein Prozessflussdiagramm zum Verfolgen eines Augenblicks, gemäß Ausführungsformen der vorliegenden Offenbarung. Vom Beginn an kann ein Bild auf einem Bildschirm angezeigt werden (802). Ein Bildsensor, wie etwa der einer Kamera oder eines anderen Bildgebungssystems kann eine Reflexion des von dem Anzeigebildschirm emittierten Lichts, das von einer Hornhaut eines Auges des Benutzers/Trägers reflektiert wird, detektieren (804). Der Bildsensor kann auch von der Anzeigevorrichtung emittiertes Licht detektieren, das von anderen Gebieten des Auges reflektiert wurde, und kann Merkmale, wie etwa den Umriss der Iris detektieren (810). Eine Form des detektierten reflektierten Lichts kann in ein Bild aufgelöst werden (806). Das reflektierte Licht von dem Umriss der Iris kann auch in ein Bild aufgelöst werden (812). Eine relative Position zwischen dem Irisumrissbild und dem reflektierten Bildschirmbild kann bestimmt werden (808). Eine Augenblickrichtung kann zumindest teilweise auf der Grundlage der relativen Position des reflektierten Bildschirmbilds und des Umrissbilds der Iris bestimmt werden (814).
  • 9 ist ein schematisches Diagramm eines Beispiels für ein Virtuelle-Realität-Headset 900, gemäß Ausführungsformen der vorliegenden Offenbarung. Das VR-Headset 900 weist einen Rahmen 902 auf, der ein Anzeigevorrichtungsgehäuse 904 und ein oder mehrere Photodetektorelemente 908 trägt. Das Anzeigevorrichtungsgehäuse 904 kann Anzeigeeinheiten 906a und 906b beherbergen, die ausgebildet sind zum Anzeigen oder Projizieren von Bildern zu einem Träger. Das Photodetektorelement 908 kann reflektiertes Licht von den Augen des Trägers 920 detektieren. Das Photodetektorelement 908 kann ein Bildsensor sein, wie etwa ein Bildsensor mit einem hochdynamischen Empfindlichkeitsbereich. Das VR-Headset kann auch ein Linsengehäuse 910 aufweisen, das angezeigtes Licht zu den Augen des Trägers 920 richtet und fokussiert. Das Linsengehäuse 910 kann eine oder mehrere Linsen 912 aufweisen. Das VR-Headset kann einen Prozessor 914 aufweisen, wie etwa eine Hardware-Verarbeitungseinheit. Der Prozessor 914 kann einen Zentralprozessor, einen Graphikprozessor, Speicher usw. aufweisen. Der Prozessor 914 kann die Anzeigevorrichtung ansteuern zum Projizieren von Augenblickkalibrierungspunkten oder -gittern oder Mustern für Kalibrierung, VR-Inhalten usw. Der Prozessor 914 kann auch unregelmäßig Kalibrierungsmuster innerhalb von Frames von VR-Inhalten für gelegentliche Neukalibrierung projizieren.
  • Der Prozessor 914 kann auch durch den Bildsensor empfangenes reflektiertes Licht verarbeiten, um einen Augenblick zu bestimmen. Der Prozessor 914 kann den Augenblick durch Bestimmen einer Verzerrung eines Musters bestimmen, wie etwa eines zweidimensionalen Musters, das von dem Auge 920 reflektiert wird. Das zweidimensionale Muster kann der Rahmen der Anzeigevorrichtung 906a, ein von der Anzeigevorrichtung 906a projiziertes Bild usw. sein.
  • Der Prozessor 914 kann auch auf der Grundlage der auf dem Bildsensor empfangenen Reflexionen von Mustern dreidimensionale Modelle des Auges bilden. Die dreidimensionalen Modelle des Auges können gebildet werden zum Erhöhen der Genauigkeit der Augenblickstellungsschätzung durch Kartieren der Konturen des Auges. Das dreidimensionale Modell des Auges des Trägers kann dazu verwendet werden, zu verstehen, wie eine Reflexion eines linearen Musters oder einer zweidimensionalen Form verzerrt wird, wenn das Auge die Blickstellung ändert.

Claims (13)

  1. Wearable-System zur Augenblickverfolgung, das nativen Inhalt nutzt, wobei das Wearable-System Folgendes aufweist: eine Anzeigevorrichtung mit einer nativen Auflösung zum Projizieren eines Bilds zu einem Auge eines Trägers; ein photoempfindliches Element, das im Sichtfeld des Trägers von dem projizierten Bild angeordnet ist, zum Empfangen einer verzerrten Reflexion des Bilds von nativen Inhalt von dem Auge des Benutzers; und einen Prozessor, ausgebildet zum Bestimmen einer Augenblickstellung auf der Grundlage der verzerrten Reflexion des Bilds.
  2. Wearable-System nach Anspruch 1, wobei das Wearable-System ein Headset für Virtuelle-Realität aufweist.
  3. Wearable-System nach Anspruch 1 oder Anspruch 2, wobei die Anzeigevorrichtung einen Virtuelle-Realität-Anzeigebildschirm aufweist.
  4. Wearable-System nach einem der Ansprüche 1 bis 3, wobei das Wearable-System ein Headset für Erweiterte Realität aufweist.
  5. Wearable-System nach einem der Ansprüche 1 bis 4, wobei der Prozessor ausgebildet ist zum: Ansteuern der projizierenden Oberfläche zum Anzeigen eines Kalibrierungsmusters; Verarbeiten einer empfangenen Reflexion des Kalibrierungsmusters von einer Hornhaut eines Trägers; und Modellieren der Form des Auges des Trägers auf der Grundlage der empfangenen Reflexion des Kalibrierungsmusters.
  6. Wearable-System nach einem der Ansprüche 1 bis 5, wobei der Prozessor ausgebildet ist zum: unregelmäßigen Einsetzen eines Neukalibrierungsbilds in einen Inhaltsstrom, der dem Träger angezeigt wird; und Neukalibrieren einer Augenblickstellung zumindest teilweise auf der Grundlage des unregelmäßig eingesetzten Neukalibrierungsbilds.
  7. Wearable-System nach einem der Ansprüche 1 bis 6, wobei der Prozessor ausgebildet ist zum: Verarbeiten einer empfangenen Reflexion einer Form, die zu dem Träger von der projizierenden Oberfläche projiziert wird; Bestimmen einer Verzerrung der Form; und Bestimmen einer Augenblickstellung zumindest teilweise auf der Grundlage der Verzerrung der Form.
  8. Wearable-System nach Anspruch 7, wobei das photoempfindliche Element ausgebildet ist zum Empfangen einer Reflexion von Licht von einer Iris des Auges; und wobei der Prozessor ausgebildet ist zum: Vergleichen einer relativen Position zwischen einer Kante einer Reflexion von der Iris des Auges mit einer Kante der Form; und Bestimmen einer Augenblickstellung auf der Grundlage der relativen Position der Kante der Reflexion von der Iris des Auges und der Kante der Form.
  9. Wearable-System nach einem der Ansprüche 1 bis 8, wobei das photoempfindliche Element einen Bildsensor mit einem hohen Dynamikbereich aufweist.
  10. Wearable-Gerät zur Augenblickverfolgung, das nativen Inhalt einer Anzeigevorrichtung nutzt, wobei das Wearable-Gerät Folgendes aufweist: ein Mittel zum Projizieren eines Bilds von der Anzeigevorrichtung zu einem Auge eines Trägers, wobei die Anzeigevorrichtung einen zusammenhängenden Block von Pixeln aufweist, die eine native Auflösung definieren; ein Mittel zum Detektieren einer verzerrten Reflexion des Bilds von dem Auge des Trägers an einem Sensor; und ein Prozessormittel zum Bestimmen einer Augenblickstellung, zumindest teilweise auf der Grundlage der verzerrten Reflexion des projizierten Bilds von dem Auges des Trägers.
  11. Wearable-Gerät nach Anspruch 10, wobei das Mittel zum Projizieren von Licht einen Virtuelle-Realität-Anzeigebildschirm oder einen Erweiterte-Realität-Headset-Projektor aufweist.
  12. Wearable-Gerät nach entweder Anspruch 10 oder Anspruch 11, wobei das Mittel zum Detektieren von Licht einen Bildsensor mit einem hohen Dynamikbereich aufweist.
  13. Wearable-Gerät nach einem der Ansprüche 10 bis 12, wobei das Prozessormittel ausgebildet ist zum: Verarbeiten einer Form einer Reflexion von einem Auge, wobei die Form durch das Mittel zum Projizieren projiziert wird; Bestimmen einer Verzerrung der Form; und Bestimmen einer Augenblickstellung zumindest teilweise auf der Grundlage der Verzerrung.
DE212018000158.8U 2017-02-17 2018-02-16 Augenblickverfolgung Active DE212018000158U1 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/435,732 US10485420B2 (en) 2017-02-17 2017-02-17 Eye gaze tracking
US15/435,732 2017-02-17
PCT/EP2018/053935 WO2018149992A1 (en) 2017-02-17 2018-02-16 Eye gaze tracking

Publications (1)

Publication Number Publication Date
DE212018000158U1 true DE212018000158U1 (de) 2019-10-22

Family

ID=61563350

Family Applications (1)

Application Number Title Priority Date Filing Date
DE212018000158.8U Active DE212018000158U1 (de) 2017-02-17 2018-02-16 Augenblickverfolgung

Country Status (4)

Country Link
US (1) US10485420B2 (de)
CN (1) CN110300976B (de)
DE (1) DE212018000158U1 (de)
WO (1) WO2018149992A1 (de)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106908951A (zh) * 2017-02-27 2017-06-30 阿里巴巴集团控股有限公司 虚拟现实头戴设备
US10325409B2 (en) * 2017-06-16 2019-06-18 Microsoft Technology Licensing, Llc Object holographic augmentation
US11458040B2 (en) * 2019-01-23 2022-10-04 Meta Platforms Technologies, Llc Corneal topography mapping with dense illumination
US11806078B1 (en) 2022-05-01 2023-11-07 Globe Biomedical, Inc. Tear meniscus detection and evaluation system

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4856891A (en) * 1987-02-17 1989-08-15 Eye Research Institute Of Retina Foundation Eye fundus tracker/stabilizer
US5016282A (en) * 1988-07-14 1991-05-14 Atr Communication Systems Research Laboratories Eye tracking image pickup apparatus for separating noise from feature portions
US6433760B1 (en) 1999-01-14 2002-08-13 University Of Central Florida Head mounted display with eyetracking capability
US6659611B2 (en) 2001-12-28 2003-12-09 International Business Machines Corporation System and method for eye gaze tracking using corneal image mapping
US6943754B2 (en) * 2002-09-27 2005-09-13 The Boeing Company Gaze tracking system, eye-tracking assembly and an associated method of calibration
US7347551B2 (en) * 2003-02-13 2008-03-25 Fergason Patent Properties, Llc Optical system for monitoring eye movement
US7963652B2 (en) * 2003-11-14 2011-06-21 Queen's University At Kingston Method and apparatus for calibration-free eye tracking
CN101099164A (zh) * 2004-12-07 2008-01-02 欧普蒂克斯技术公司 使用来自眼睛反射的虹膜成像
US20070076082A1 (en) * 2005-09-30 2007-04-05 Lexmark International, Inc. Methods and apparatuses for measuring print area using hand-held printer
US8014571B2 (en) * 2006-05-15 2011-09-06 Identix Incorporated Multimodal ocular biometric system
CN101311882A (zh) * 2007-05-23 2008-11-26 华为技术有限公司 视线跟踪人机交互方法及装置
CN100569176C (zh) * 2008-04-23 2009-12-16 中国人民解放军空军航空医学研究所 一种利用虚拟视靶的视-眼动反射检查方法
US9398848B2 (en) * 2008-07-08 2016-07-26 It-University Of Copenhagen Eye gaze tracking
JP2010060817A (ja) * 2008-09-03 2010-03-18 Olympus Corp 表示装置およびこれを備える電子機器
EP2309307B1 (de) * 2009-10-08 2020-12-09 Tobii Technology AB Augenverfolgung mithilfe einer grafischen Prozessoreinheit
US8929589B2 (en) * 2011-11-07 2015-01-06 Eyefluence, Inc. Systems and methods for high-resolution gaze tracking
US9916005B2 (en) * 2012-02-06 2018-03-13 Sony Corporation Gaze tracking with projector
US20130285885A1 (en) * 2012-04-25 2013-10-31 Andreas G. Nowatzyk Head-mounted light-field display
US9456744B2 (en) * 2012-05-11 2016-10-04 Digilens, Inc. Apparatus for eye tracking
JP5887026B2 (ja) 2012-09-03 2016-03-16 ゼンソモトリック インストゥルメンツ ゲゼルシャフト ヒューア イノベイティブ ゼンソリック エムベーハーSENSOMOTORIC INSTRUMENTS Gesellschaft fur innovative Sensorik mbH ヘッドマウントシステム及びヘッドマウントシステムを用いてディジタル画像のストリームを計算しレンダリングする方法
KR102205374B1 (ko) * 2012-12-06 2021-01-21 아이플루언스, 인크. 아이 트래킹 웨어러블 디바이스들 및 사용을 위한 방법들
US9898081B2 (en) * 2013-03-04 2018-02-20 Tobii Ab Gaze and saccade based graphical manipulation
US10165176B2 (en) * 2013-10-31 2018-12-25 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for leveraging user gaze in user monitoring subregion selection systems
KR102651578B1 (ko) * 2013-11-27 2024-03-25 매직 립, 인코포레이티드 가상 및 증강 현실 시스템들 및 방법들
JP2015123262A (ja) * 2013-12-27 2015-07-06 学校法人東海大学 角膜表面反射画像を利用した視線計測方法及びその装置
US9651784B2 (en) * 2014-01-21 2017-05-16 Osterhout Group, Inc. See-through computer display systems
CN106537290B (zh) * 2014-05-09 2019-08-27 谷歌有限责任公司 与真实和虚拟对象交互的基于生物力学的眼球信号的系统和方法
EP3062142B1 (de) * 2015-02-26 2018-10-03 Nokia Technologies OY Vorrichtung für augennahe Anzeige
US20160363995A1 (en) 2015-06-12 2016-12-15 Seeing Machines Limited Circular light element for illumination of cornea in head mounted eye-tracking
US9983709B2 (en) * 2015-11-02 2018-05-29 Oculus Vr, Llc Eye tracking using structured light
WO2017091477A1 (en) * 2015-11-25 2017-06-01 Google Inc. Prism-based eye tracking
US10152121B2 (en) * 2016-01-06 2018-12-11 Facebook Technologies, Llc Eye tracking through illumination by head-mounted displays
US10115205B2 (en) * 2016-03-11 2018-10-30 Facebook Technologies, Llc Eye tracking system with single point calibration

Also Published As

Publication number Publication date
US20180235465A1 (en) 2018-08-23
CN110300976A (zh) 2019-10-01
CN110300976B (zh) 2024-01-05
US10485420B2 (en) 2019-11-26
WO2018149992A1 (en) 2018-08-23

Similar Documents

Publication Publication Date Title
DE68928825T2 (de) Augenfolgeverfahren unter Verwendung eines Bildaufnahmegeräts
DE212018000158U1 (de) Augenblickverfolgung
EP3542211B1 (de) Verfahren und vorrichtung sowie computerprogramm zum ermitteln einer repräsentation eines brillenglasrands
DE112013000590B4 (de) Verbesserter Kontrast zur Objekterfassung und Charakterisierung durch optisches Abbilden
EP3418978B1 (de) Verfahren, visualisierungsvorrichtung und computerprogrammprodukt zur visualisierung eines dreidimensionalen objekts
EP3256036B1 (de) Vorrichtung und verfahren zur abstandsbestimmung und/oder zentrierung unter verwendung von hornhautreflexionen
US8547421B2 (en) System for adaptive displays
DE102018214637A1 (de) Verfahren zum Ermitteln einer Blickrichtung eines Auges
DE60023156T2 (de) Verfahren und gerät zur verminderung der trapezverzerrung und verbesserung der bildschärfe in einem optischen bilderfassungssystem
DE112015007146T5 (de) Vorrichtung und verfahren zur dreidimensionalen bildmessung
DE60133026T2 (de) Genaues ausrichten von bildern in digitalen abbildungssystemen durch anpassen von punkten in den bildern
EP3183616B1 (de) Ermittlung von benutzerdaten unter berücksichtigung von bilddaten einer ausgewählten brillenfassung
DE102015102113A1 (de) Verfahren zum warnen eines benutzers über einen abstand zwischen augen des benutzers und einem bildschirm
DE102015114376B4 (de) Vorrichtung und Verfahren zur Charakterisierung subjektiver Speckle-Bildung
EP3783303B1 (de) Verfahren und vorrichtung zum vermessen einer optischen linse für individuelle tragesituationen eines nutzers
DE112005000393T5 (de) Sichtweitenerkennungsvorrichtung unter Verwendung eines Entfernungsbildsensors
DE102015223891A1 (de) Blickrichtungsverfolgungseinrichtung und Verfahren zum Verfolgen einer Blickrichtung
CN106851263A (zh) 基于定时自学习模块的视频质量诊断方法及系统
CN108629293B (zh) 一种具有反馈机制的自适应近红外虹膜图像采集方法
DE112017007303B4 (de) Gesichtserkennungsvorrichtung
DE102014117120A1 (de) Bildverarbeitungsvorrichtung
EP3735891A2 (de) Computerimplementiertes verfahren zur detektion eines hornhautscheitels
WO2004051186A1 (de) Verfahren und vorrichtung zur optischen formvermessung und/oder beurteilung
DE102014113256A1 (de) Bildaufnahmevorrichtung und Verfahren zur Bildaufnahme mit Reflexunterdrückung
DE202014010866U1 (de) Spekularitätsbestimmung von Bildern

Legal Events

Date Code Title Description
R207 Utility model specification
R150 Utility model maintained after payment of first maintenance fee after three years
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009000000

Ipc: G06V0010000000

R081 Change of applicant/patentee

Owner name: ANALOG DEVICES INTERNATIONAL UNLIMITED COMPANY, IE

Free format text: FORMER OWNER: ANALOG DEVICES GLOBAL UNLIMITED COMPANY, HAMILTON, BM

R151 Utility model maintained after payment of second maintenance fee after six years