WO2013079727A1 - Messverfahren und vorrichtung zur durchführung des messverfahrens - Google Patents

Messverfahren und vorrichtung zur durchführung des messverfahrens Download PDF

Info

Publication number
WO2013079727A1
WO2013079727A1 PCT/EP2012/074289 EP2012074289W WO2013079727A1 WO 2013079727 A1 WO2013079727 A1 WO 2013079727A1 EP 2012074289 W EP2012074289 W EP 2012074289W WO 2013079727 A1 WO2013079727 A1 WO 2013079727A1
Authority
WO
WIPO (PCT)
Prior art keywords
location
camera
display device
light source
light
Prior art date
Application number
PCT/EP2012/074289
Other languages
English (en)
French (fr)
Inventor
Gerald FÜTTERER
Original Assignee
Seereal Technologies S.A.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seereal Technologies S.A. filed Critical Seereal Technologies S.A.
Priority to CN201280068981.2A priority Critical patent/CN104205006B/zh
Priority to US14/361,743 priority patent/US11675426B2/en
Publication of WO2013079727A1 publication Critical patent/WO2013079727A1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking

Definitions

  • the present invention relates to a measuring method and a device for carrying out the measuring method.
  • the second location is an eye pupil of the observer
  • the relative position of the first location is determined in relation to the eye pupil of the observer in the coordinate system of the camera.
  • the eye pupils of the observer are very prominent points or areas on the face of the observer. They can therefore be relatively easily detected by an evaluation logic connected to the camera.
  • the determination of the relative position of the first location with respect to the position of an eye pupil of the observer a control in
  • an embodiment of the measuring method provides that from the relative position of the first location with respect to the second location in the

Abstract

Die vorliegende Erfindung betrifft ein Messverfahren, bei welchem durch vorbestimmte Beleuchtung mittels eines Anzeigegerätes, insbesondere eines holographischen oder autostereoskopischen Anzeigegerätes, mit einer Intensitätsverteilung des Beleuchtungslichts in einer Ebene eines Lichtquellenbilds ein erster Ort eines Objektes, insbesondere eines Betrachter des Anzeigegeräts, markiert wird und wobei die Relativposition des ersten Ortes in Bezug auf einen zweiten Ort des Objektes in einem Koordinatensystem einer Kamera bestimmt wird.

Description

Messverfahren und Vorrichtung zur Durchführung des Messverfahrens
Die vorliegende Erfindung betrifft ein Messverfahren sowie eine Vorrichtung zur Durchführung des Messverfahrens.
Anzeigegeräte, die Betrachtern eine echte räumliche, d.h. dreidimensionale Wahrnehmung erlauben, werden immer populärer.
Typischerweise benötigen Betrachter dieser Anzeigegeräte Hilfsmittel, z.B. Helme, Spots, Polarisationsbrillen oder Shutterbrillen, um die von den Anzeigegeräten angezeigten Szenen dreidimensional wahrnehmen zu können.
Es sind auch Anzeigegeräte bekannt, die den Betrachtern eine Betrachtung ohne zusätzliche Hilfsmittel ermöglichen. Typischerweise wird bei diesen
Anzeigegeräten, z.B. autostereoskopischen Anzeigegeräten oder holographischen Anzeigegeräten, eine Information darüber benötigt, wo sich der oder die Betrachter in Bezug auf das Anzeigegerät aufhalten.
Üblicherweise werden zu diesem Zweck zwei Kameras genutzt, die den Raum vor dem Anzeigegerät erfassen. Mit den Kameras verbundene Auswerteeinheiten erkennen das Gesicht eines Betrachters des Anzeigegerätes und können insbesondere die Position der Augenpupillen des Betrachters in Bezug auf die Position der Kameras bestimmen. Die Erfassungsrichtung der Kameras in Bezug auf das Anzeigegerät ist dabei fest vorgegeben, so dass sich aus der Position der Augenpupillen in Bezug auf die Kameras die Position der Augenpupillen in Bezug auf das Anzeigegerät bestimmen lässt. Während des Transports der Vorrichtung kann es passieren, dass sich die Position und insbesondere die Ausrichtung der Kameras in Bezug auf das Anzeigegerät verstellt. Somit kann die Position der Augenpupillen in Bezug auf das Anzeigegerät nicht mehr genau bzw. korrekt bestimmt werden und es ist eine Neukalibrierung der Vorrichtung notwendig .
Weiter sind spezielle Vorrichtungen bekannt, mit denen Objekte
dreidimensional vermessen werden können. Typischerweise werden bei diesen Vorrichtungen mit einem Laser Linien auf dem Objekt erzeugt. Bilder von dem mit diesen Linien beleuchteten Objekt werden dann mit einer Kamera
aufgenommen und aus der Verzerrung der Linien wird dann die Form des Objektes berechnet und als digitales Modell hinterlegt. Um einem Betrachter die Möglichkeit zu geben, dieses digitale Modell zu begutachten, ist zusätzlich jedoch noch ein digitales Anzeigegerät notwendig. Hiervon ausgehend lag der Erfindung demzufolge die Aufgabe zugrunde, ein Messverfahren und eine Vorrichtung mit verringertem apparativen Aufwand anzugeben . Erfindungsgemäß wurde diese Aufgabe mit den Gegenständen der unabhängigen Patentansprüche 1 und 15 gelöst. Vorteilhafte Ausgestaltungen der Erfindung sind in den auf die Patentansprüche 1 und 15 rückbezogenen Patentansprüchen 2 bis 14 sowie 16 bis 18 genannt. So besteht die Lösung der Aufgabe in einem Messverfahren, wobei durch vorbestimmte Beleuchtung mittels eines Anzeigegerätes mit einer
Intensitätsverteilung des Beleuchtungslichts in einer Ebene eines
Lichtquellenbilds ein erster Ort eines Objektes markiert wird und wobei die Relativposition des ersten Ortes in Bezug auf einen zweiten Ort des Objektes in einem Koordinatensystem einer Kamera bestimmt wird.
Der Erfindung liegt der Gedanke zugrunde, das Anzeigegerät selbst als Mittel zur Bestimmung der Relativposition des ersten Ortes des Objektes in Bezug auf einen zweiten Ort des Objektes zu verwenden. Da die Beleuchtung für die Anzeige von Bildinformationen durch das Anzeigegerät selbst vorgegeben wird, kann die Position des ersten Ortes des Objektes und mittels der
Relativposition des zweiten Ortes in Bezug auf den ersten Ort im
Koordinatensystem der Kamera auch die Position des zweiten Ortes des Objektes im Koordinatensystem des Anzeigegerätes bestimmt werden.
Eine Kalibrierung der Kamera, d.h. die Bestimmung von deren Position und Ausrichtung, in Bezug auf das Koordinatensystem des Anzeigegerätes kann dadurch entbehrlich werden. Durch die Verwendung eines holographischen Anzeigegerätes kann die
Intensitätsverteilung des Beleuchtungslichts in der Ebene des
Lichtquellenbildes durch konstruktive bzw. destruktive Interferenz kohärenter Lichtstrahlen erzeugt werden. Auf diese Weise kann gezielt eine stark mit dem Abstand des Objektes vom Anzeigegerät variierende Intensitätsverteilung des Beleuchtungslichts erzielt werden.
Ein autostereoskopisches Anzeigegerät kann gegenüber einem holographischen Anzeigegerät aus einfacheren Baugruppen zusammengesetzt sein. Insbesondere benötigen autostereoskopische Anzeigegeräte keine Lichtquellen, die Licht großer Kohärenzlänge erzeugen, um dreidimensionale Szenen darzustellen. Die
Verwendung eines autostereoskopischen Anzeigegerätes kann das Verfahren somit günstiger machen. Die Markierung des ersten Ortes eines Betrachters des Anzeigegerätes kann vor allem dann vorteilhaft sein, wenn das Anzeigegerät mit dem Betrachter interagieren soll. Es ist allerdings auch denkbar den ersten Ort eines unbelebten Gegenstands zu markieren, so dass er vermessen werden kann, oder gezielt mit einer Textur beleuchtet werden kann.
Nach einer ersten Weiterbildung des Messverfahrens weist die
Intensitätsverteilung des Beleuchtungslichts in der Ebene des
Lichtquellenbilds ein Lichtquellenbild einer Beugungsordnung auf.
Anzeigegeräte weisen typischerweise einen räumlichen Modulator für Licht mit einer vorgegebenen Rasterung. Die Rasterung des räumlichen Modulators kann als natürliches Beugungsgitter mit einem vorherbestimmten Gitterabstand genutzt werden, so dass die Intensitätsverteilung des Beleuchtungslichts in der Ebene des Lichtquellenbilds ein Lichtquellenbild einer Beugungsordnung aufweisen kann. Denkbar ist, das Lichtquellenbild der 0. Beugungsordnung, d.h. das ungebeugte Lichtquellenbild, zu verwenden. Es können jedoch auch höhere Beugungsordnungen verwendet werden. Es können auch mehrere
Beugungsordnungen zur Erzeugung der Intensitätsverteilung verwendet werden, beispielsweise um die Präzision des Messverfahrens zu erhöhen, da mehrere Lichtquellenbilder detektierbar sind. Durch den vorgegebenen Gitterabstand können die Abstände der Maxima und/oder Minima in der Intensitätsverteilung sehr genau vorgegeben werden. Es ist möglich die Genauigkeit der Bestimmung der Relativposition des ersten Ortes in Bezug auf den zweiten Ort sehr genau vorzugeben.
Gemäß einer weiteren Ausgestaltung des Messverfahrens ist der zweite Ort eine Augenpupille des Betrachters und die Relativposition des ersten Ortes wird in Bezug auf die Augenpupille des Betrachters in dem Koordinatensystem der Kamera bestimmt. Die Augenpupillen des Betrachters sind sehr markante Punkte bzw. Bereiche auf dem Gesicht des Betrachters. Sie können sich somit relativ einfach von einer mit der Kamera verbundenen Auswertelogik erkannt werden. Zudem kann die Bestimmung der Relativposition des ersten Ortes in Bezug auf die Position einer Augenpupille des Betrachters eine Steuerung in
Abhängigkeit der Augenpupillenposition des Betrachters ermöglichen. Davon können insbesondere Betrachter profitierten, die sich aus körperlichen Gründen nicht anders verständlich machen können.
Ferner sieht ein Ausführungsbeispiel der Messverfahrens vor, dass durch Änderung der vorbestimmten Beleuchtung der erste Ort mit einem vorgebbaren Bereich des Gesichts des Betrachters, insbesondere mit der Augenpupille des Betrachters, in Deckung gebracht wird. Hierdurch kann eine
Betrachternachführung (engl.: Tracking) realisiert werden. Bei Anzeigegeräten, die Betrachtern eine echte dreidimensionale Wahrnehmung ohne Hilfsmittel wie z.B. Polarisationsbrillen oder Shutterbrillen
ermöglichen sollen, kann es vorteilhaft sein, nicht nur die Relativposition des ersten Ortes in Bezug auf den zweiten Ort zu bestimmen, sondern diese direkt in Deckung zu bringen. Auf diese Weise kann es möglich werden, gezielt nur einen vorgebbaren Bereich des Gesichts des Betrachters bei der Wiedergabe von z.B. Filmszenen zu beleuchten. Auf diese Weise kann der Rechenaufwand bei der Berechnung der dreidimensionalen Darstellung reduziert werden.
Nach einer anderen Weiterbildung des Messverfahrens wird als
Intensitätsverteilung des Beleuchtungslichts in einer Ebene eines
Lichtquellenbilds oder als Lichtquellenbild ein dem Betrachter anzuzeigendes Bild verwendet.
Die Verwendung des dem Betrachters anzuzeigenden Bildes kann es ermöglichen, das Messverfahren auch dann durchzuführen, wenn es als Anzeigegerät für den Betrachter verwendet wird. Wenn es sich um ein dreidimensionale Szenen darstellendes Anzeigegerät handelt, kann die Darstellung an eine sich ändernde Position des Betrachters angepasst werden.
Gemäß einer weiteren Ausgestaltung des Messverfahrens wird durch vorbestimmte Beleuchtung mittels des Anzeigegerätes mit einer zweiten
Intensitätsverteilung des Beleuchtungslichts in einer Ebene eines zweiten Lichtquellenbilds der zweite Ort des Objektes definiert.
Der Abstand zwischen dem ersten Ort des Objektes und dem zweiten Ort kann auf diese Weise im Koordinatensystem des Anzeigegeräts bekannt sein und somit aus dem Relativabstand des ersten Ortes in Bezug auf den zweiten Ort im
Koordinatensystem der Kamera die Position und Ausrichtung der Kamera in Bezug auf das Anzeigegerät bestimmt werden.
Die zweite Intensitätsverteilung des Beugungslichts in der Ebene des zweiten Lichtquellenbilds kann ein Lichtquellenbild einer Beugungsordnung aufweisen. Die Verwendung von Beugungsordnungen als Lichtquellenbilder kann den Vorteil haben, dass deren Abstände, bzw. die zugrunde liegenden Beugungswinkel durch eine Rasterung des Anzeigegerätes fest vorgegeben sein können. Es kann somit die Reproduzierbarkeit der Messung verbessert sein. Ferner sieht ein Ausführungsbeispiel des Messverfahrens vor, dass mit der ersten und der zweiten Intensitätsverteilung des Beleuchtungslichts ein vorgebbares Muster auf dem Objekt, insbesondere dem Gesicht des Betrachters, gebildet wird, dass mit der Kamera ein Bild des Musters aufgenommen wird, und dass das aufgenommene Bild des Musters auf Abweichungen zu dem vorgebbaren Muster untersucht wird.
Durch Ermittlung der Abweichungen zu dem vorgebbaren Muster, ist es denkbar, die Form des Objektes zu ermitteln. Es kann ggf. auch festgestellt werden, ob das Objekt einem vorgegebenen Objekt oder einem anderen Objekt entspricht.
Nach einer anderen Weiterbildung des Messverfahrens wird als erstes
Lichtquellenbild eine erste Beugungsordnung und als zweites Lichtquellenbild eine andere Beugungsordnung verwendet.
Die Verwendung von definierten Beugungsordnungen als Lichtquellenbilder kann den Vorteil haben, dass deren Abstand durch eine Rasterung des Anzeigegerätes fest vorgegeben sein kann, so dass die gemessenen Relativpositionen auf absolute Positionen zurückgeführt werden können. Das Beugungsmuster ergibt sich aus der Rasterung des Anzeigegerätes bzw. eines steuerbaren räumlichen Lichtmodulators des Anzeigegerätes, der Wellenlänge des verwendeten Lichtes, bzw. den verwendeten Wellenlängen und dem Abstand zur beleuchteten Ebene, d.h. dem Abstand zum beleuchteten Objekt.
Gemäß einer weiteren Ausgestaltung des Messverfahrens wird ein kalibriertes Objekt verwendet. Unter einem kalibrierten Objekt wird ein Objekt mit einer hinreichend genau bekannten Form verstanden. Aus der Bestimmung der
Relativposition des ersten Ortes des Objektes in Bezug auf den zweiten Ort des kalibrierten Objektes im Koordinatensystem der Kamera kann die Position und Ausrichtung der Kamera in Bezug auf das Koordinatensystem des
Anzeigegerätes mit verbesserter Genauigkeit bestimmt werden.
Ferner sieht ein Ausführungsbeispiel des Messverfahrens vor, dass aus der Relativposition des ersten Ortes in Bezug auf den zweiten Ort in dem
Koordinatensystem der Kamera das Koordinatensystem der Kamera in Bezug auf ein Koordinatensystem des Anzeigegerätes kalibriert wird.
Die Kalibration des Koordinatensystems der Kamera kann es ermöglichen auf die laufende Bestimmung der Relativposition zu verzichten, da die Position des zweiten Ortes des Objektes im Koordinatensystem des Anzeigegerätes auch bestimmt werden kann, ohne dass ein erster Ort des Objektes durch
vorbestimmte Beleuchtung markiert werden muss. Eine Kalibrierung ist nur in größeren Abständen notwendig, wenn sich die Ausrichtung und/oder Position der
Kamera verstellt haben sollte. Eine Kalibrierung kann insbesondere nach einem
Transport der Vorrichtung notwendig werden. Es ist denkbar die Kalibrierung in vorgegebenen Zeitabständen durchzuführen. Vorstellbar ist es aber auch, die Kalibrierung nur auf explizite Anforderung des Betrachters durchzuführen. Nach einer anderen Weiterbildung des Messverfahrens wird die Kamera in einem vorbestimmten Abstand und/oder einer vorbestimmten Ausrichtung zum
Anzeigegerät angeordnet und aus der Relativposition des ersten Ortes in Bezug auf den zweiten Ort in dem Koordinatensystem der Kamera die Position des zweiten Ortes in einem Koordinatensystem des Anzeigegerätes bestimmt. Dadurch kann insbesondere die Form des Objektes bestimmt werden.
Gemäß einer weiteren Ausgestaltung des Messverfahrens wird das erste
Lichtquellenbild und das zweite Lichtquellenbild durch ein optisches System des Anzeigegerätes und durch eine vorbestimmte Beleuchtung eines steuerbaren räumlichen Lichtmodulators mit Licht einer ersten sichtbaren Wellenlänge und/oder einer zweiten sichtbaren Wellenlänge und/oder einer dritten sichtbaren Wellenlänge und/oder einer infraroten Wellenlänge erzeugt und die Kamera und/oder eine weitere Kamera mit einem Filter versehen, der im
Wesentlichen nur Licht der ersten sichtbaren Wellenlänge und/oder der zweiten sichtbaren Wellenlänge und/oder der dritten sichtbaren Wellenlänge und/oder infraroter Wellenlänge durchlässig ist. Durch die Verwendung von Licht einer definierten Wellenlänge und eines entsprechenden Filters, kann das Signal-Rausch-Verhältnis verbessert werden. Insbesondere kann eine Beeinflussung des Messergebnisses durch Umgebungslicht reduziert werden. Die Verwendung eines für Licht infraroter Wellenlänge durchlässigen Filters kann insbesondere bei der Erfassung des Betrachters vorteilhaft sein. Beispielsweise kann ggf. die Position der Augenpupillen des Betrachters einfacher zu bestimmen sein, wenn der Filter der Kamera lediglich Licht infraroter Wellenlänge durchlässt.
Typischerweise werden Betrachtern mit Anzeigegeräten, der hier beschriebenen Art, den Betrachtern farbige Lichtquellenbilder gezeigt, die aus Licht dreier Wellenlängen gebildet werden. Durch die Nutzung aller drei Wellenlängen lässt sich die Genauigkeit der Messungen verbessern.
Ferner sieht ein anderes Ausführungsbeispiel des Messverfahrens vor, dass die Relativposition des ersten Ortes in Bezug auf den zweiten Ort in einem zweiten Koordinatensystem einer zweiten Kamera bestimmt wird.
Durch die Verwendung einer zweiten Kamera können zusätzlich zu Informationen über die Richtungen, in denen sich der erste Ort des Objektes und der zweite Ort des Objektes befinden, auch Informationen über den Abstand des ersten und des zweiten Objektes von dem Anzeigegerät erhalten werden. Weitere Kameras können ggf. die Ortsauflösung weiter verbessern. Nach einem weiteren Ausführungsbeispiel des Messverfahrens wird durch vorbestimmte Beleuchtung mittels eines Anzeigegerätes, insbesondere eines holographischen oder autostereoskopischen Anzeigegerätes, mit einer
Intensitätsverteilung des Beleuchtungslichts in einer Ebene eines
Lichtquellenbilds ein erster Ort eines Betrachters des Anzeigegeräts markiert, wobei als Intensitätsverteilung des Beleuchtungslichts in einer Ebene eines Lichtquellenbilds oder als Lichtquellenbild ein
Sichtbarkeitsfenster eines dem Betrachter anzuzeigenden Bildes verwendet wird, wobei die Relativposition des ersten Ortes in Bezug auf die
Augenpupille des Betrachters in dem Koordinatensystem der Kamera bestimmt wird, und wobei durch Änderung der vorbestimmten Beleuchtung der erste Ort mit einem vorgebbaren Bereich des Gesichts des Betrachters, insbesondere mit der Augenpupille des Betrachters, in Deckung gebracht wird. Das Messverfahren kann für beide Augenpupillen durchgeführt werden. Es können dem Betrachter für jede Augenpupille spezifische Bildinformationen zur Verfügung gestellt werden. Damit kann beispielsweise ein besonders guter Tiefeneindruck vermittelt werden. Zudem kann das Sichtbarkeitsfenster kontinuierlich der Position der Augen nachgeführt werden, so dass vermieden werden kann, dass Lichtbilder höherer Beugungsordnungen von den Augenpupillen erfasst werden.
Andererseits ist die oben genannte Aufgabe durch eine Vorrichtung zur
Durchführung des Messverfahrens gelöst worden, wobei die Vorrichtung ein Anzeigegerät, eine Kamera und eine Auswerteeinheit zur Bestimmung der
Position des ersten Ortes in einem Koordinatensystem der Kamera aufweist.
Die mit einem solchen Anzeigegerät, insbesondere mit einem holographischen Anzeigegerät oder einem autostereoskopischen Anzeigegerät einhergehenden Vorteile sind in Bezug auf das erfindungsgemäße Verfahren bereits oben beschrieben worden.
Nach einer ersten Weiterbildung der Vorrichtung umfasst die Kamera einen CCD- Sensor .
CCD-Sensoren können einen besonders hohen Dynamikumfang haben, d.h. sowohl sehr helle als auch sehr dunkele Bereiche des Bildbereichs erfassen.
Alternativ kann die Kamera auch einen CMOS-Sensor aufweisen. Im Allgemeinen weisen CMOS-Sensoren einen höheren Dynamikbereich als CCD-Sensoren auf, wobei CCD-Sensoren im Vergleich zu CMOS-Sensoren im Allgemeinen eine höhere Bit- Tiefe aufweisen. CMOS-Sensoren können typischerweise auch langwelligeres, infrarotes Licht erfassen. Die Kamera könnte auch eine Farbkamera sein. Durch das zusätzliche Ausnutzen der Farbinformationen kann die Genauigkeit der Relativpositionsbestimmung weiter verbessert werden. Ferner sieht ein Ausführungsbeispiel der Vorrichtung vor, dass die
Vorrichtung eine Lichtquelle und ein optisches System umfasst, wobei mit der Lichtquelle und dem optischen System eine Intensitätsverteilung des
Beleuchtungslichts in einer Ebene eines Lichtquellenbildes erzeugbar ist. Gemäß der vorliegenden Erfindung kann mit Hilfe einer auf ein Objekt abgebildete bzw. projizierte Intensitätsverteilung des Beleuchtungslichts eine zuverlässige relative Position des ersten Orts des Objekts auf einen zweiten Ort des Objekts in einem Koordinatensystem einer Kamera bestimmt werden, wobei der zweite Ort eine Augenpupille des Betrachters ist.
Damit das Signal-zu-Rausch-Verhältnis erhöht werden kann, könnte gemäß einer bevorzugten Ausführungsform mindestens ein schmaler Bandpassfilter eingesetzt werden. Die Transmissionscharakteristik eines Dreifach-Bandpassfilters ist in Fig. 5 gezeigt. Hierbei ist die Transmission in Abhängigkeit der Wellenlänge des verwendeten Lichts aufgetragen. Die Transmission kann derart optimiert werden, dass sie für mehrere schmalbandige spektrale Bereiche jeweils wirkt. Dementsprechend ist es möglich, entsprechende spektrale Fenster
beispielsweise für (457 ± 3) nm, (532 ± 3) nm, (640 ± 3) nm und/oder (780 ± 5) nm zu verwenden. Solche spektralen Filter sind heutzutage schon
Massenprodukte, deren hauptsächliches Einsatzgebiet in der
Fluoreszenzlichtmikroskopie oder in farbseparierter dreidimensionaler
Darstellung von Objekten ist. Es ist auch möglich, lediglich eine Infrarot- Wellenlänge, beispielsweise 780 nm, als unsichtbare Komponente einzusetzen. Dies deshalb, weil Licht bei einer Wellenlänge von 780 nm nur bei hohen Intensitäten gesehen werden kann. Es ist also möglich, ein schmales
spektrales Fenster in dem nahen Infrarotbereich oder im Infrarotbereich zu verwenden. Das Umgebungslicht kann um einen Faktor von zum Beispiel > 200 unterdrückt werden. In vorteilhafter Weise ist es darüber hinaus möglich, beispielsweise ein Infrarot-Line-Scanning (d.h. eine Linienrasterung) unter Verwendung eines zusätzlichen Subsystems des erfindungsgemäßen Messverfahrens zu verwenden.
Die Detektion bzw. die Bestimmung der Augenposition kann mit Hilfe eines CMOS-Arrays oder einer CMOS-Zeile erfolgen. Ein Retina-Scan stellt hierbei eine schnelle Möglichkeit zur Nachführung der Augenposition dar. Dabei ist es möglich, dies unter Verwendung einer nahen Infrarot-LED zu implementieren, welche eine vorgegebene räumliche Korrelation realisiert. Dementsprechend kann die Position eines Auges bzw. einer Pupille mit einer vordefinierten bzw. vorgegebenen Beleuchtungsfunktion korrelieren.
Gemäß einem ersten Ausführungsbeispiel hierzu könnten mehrere Lichtquellen eingesetzt werden, deren Licht in unterschiedliche Richtungen emittiert wird. Dementsprechend ist es möglich, die Köpfe mehrerer Betrachter und die Augen aus unterschiedlichen Richtungen zu beleuchten. Die unterschiedlichen
Beleuchtungsrichtungen können ein- und ausgeschaltet werden, nämlich beispielsweise dadurch, dass Lichtquellen unterschiedlicher Richtungen ein- bzw. ausgeschaltet werden. Dies kann zeitsequentiell oder zeitgleich erfolgen, beispielsweise bei einer Beleuchtung mit Licht im Wesentlichen gleicher Wellenlänge zeitsequentiell. Wenn Beleuchtungslicht
unterschiedlicher Wellenlängen verwendet wird, könnte dies auch zeitgleich erfolgen .
Gemäß einem weiteren Ausführungsbeispiel hierzu könnte eine scannende Lösung verwendet werden. Hierbei könnte ein Scan (Rastern bzw. Abtasten)
beispielsweise in eine Richtung oder in zwei, drei oder mehrere
unterschiedliche Richtungen erfolgen. Jeder eindimensionale Scan (d.h. jede Rasterung eines Lichtstrahls entlang einer im Wesentlichen geradförmigen Linie) ergibt eine Erhöhung des Retina-Reflex-Signals. Auch hier kann der Einsatz eines schmalbandigen spektralen Filters genutzt werden, um das Licht der Lichtquelle des Scanners von dem Umgebungslicht zu trennen und damit das Signal-zu-Rausch-Verhältnis des detektierten Signals zu erhöhen.
Die Auswertung bzw. Bestimmung der Position der Augen kann zeitsequentiell erfolgen, beispielsweise in zwei unterschiedlichen Richtungen.
Dementsprechend kann die x- und y-Position des Auges bzw. der Augenpupille beispielsweise innerhalb 1/1000 Sekunde bestimmt werden, wenn ein CMOS- Liniendetektor eingesetzt wird.
Es können weiterhin unterschiedliche Scanverfahren implementiert werden. So können beispielsweise globale Scans durchgeführt werden, beispielsweise in x- und y-Richtung oder in gekreuzten Richtungen. Auch winkelabhängige Scans können implementiert werden. Weiterhin kann ein a- und ß-Winkelscan
eingesetzt werden, um richtungsabhängige Schnitte der Winkel-Scanning-Linien zu bestimmen. Mehrere Scanningverfahren können kombiniert werden, um mögliche Unsicherheiten in der Positionsbestimmung zu reduzieren bzw. auszuschließen. Zusätzlich hierzu kann ein Scanbereich definiert bzw. festgelegt werden.
Dieser Scanbereich kann wesentlich kleiner als der gesamte Scanbereich sein. Dementsprechend können die Scans in diesem reduzierten Scanbereichen durchgeführt werden, wodurch die Scangeschwindigkeit und die Augendetektion schneller durchgeführt werden kann.
Im Konkreten könnte in einem Ausführungsbeispiel ein in x-Richtung bzw. in horizontaler Richtung angeordneter Linienscanner an einer Seite des
Anzeigegeräts vorgesehen sein und ein linienförmiger Detektor oder eine (zweidimensionale) Detektionsmatrix an der anderen Seite des Anzeigegeräts angeordnet sein. Weiterhin ist es möglich, Linienscanner und Detektoren an beiden Seiten des Anzeigegeräts vorzusehen. Eine vergleichbare Anordnung kann an der oberen und unteren Seite des Anzeigegeräts vorgesehen sein, um beispielsweise einen y-Scan zu implementieren.
Eine kosteneffiziente Lösung könnte beispielsweise dadurch erfolgen, dass ein DOE (diffraktives optisches Element), welches vor einer IR-LD (Infrarot- Lichtdiode) und einem eindimensionalen Scanspiegel angeordnet ist, wobei die IR-LD und der eindimensionale Scanspiegel in einem Standard-IC-Gehäuse angeordnet ist, welches auch die gesamte elektronische Ansteuerung enthält, um den kleinen Scanningspiegel anzutreiben.
Dieses Detektionsprinzip könnte auch in Verbindung mit einem HMD (head- mounted Display, ein an einem Betrachterkopf adaptiertes Display) angewendet werden .
Wenn beispielsweise ein- oder zweidimensionale CMOS-Detektor-Arrays verwendet werden, kann auch hier wieder ein eingeschränkter Scanbereich ausgewählt werden, damit von dem eingeschränkten Scanbereich Signale detektiert und mit einer erhöhten Wiederholrate ausgelesen werden können. Hierzu kann
beispielsweise ein Modul zum Auffinden eines Betrachterkopfes verwendet werden, welches lediglich die Position des Betrachterkopfes detektiert. Diese Positionsdaten des Betrachterkopfes können dann für den ausgewählten
Scanbereich verwendet werden, beispielsweise unter Einsatz zweier
eindimensionaler Scanner.
So könnte beispielsweise ein kleiner Bereich von 25 mm x 25 mm oder sogar wesentlich kleiner verwendet werden, wobei dieser Bereich ungefähr auf die
Mitte der Augenpupille zentriert wird. Dieser Bereich bzw. diese Fläche wird mit dem eindimensionalen oder zweidimensionalen Linienscan beleuchtet.
Schnelle Fotodetektordioden können am Rand des Anzeigegeräts angeordnet sein.
Diese Detektoren können beispielsweise mit schmalbandigen Filtern, welche auf die Beleuchtungswellenlänge abgestimmt sind - z.B. nahe Infrarotleuchtdioden
- versehen sein. Dementsprechend kann hierdurch ein schnelles Subsystem realisiert werden, welches in dem Anzeigegerät zum Einsatz kommen kann, und zwar wenn das Anzeigegerät in Form eines Direktsichtgeräts, eines HMD oder eines mobilen Displays oder eines Tablets ausgebildet ist. Die Fotodetektoren oder Fotodioden können auch eine speziell abgestimmte winkelabhängige
Detektionscharakteristik aufweisen, welche insbesondere Licht aus
vorgegebenen Raumbereichen bzw. Nachführbereichen detektieren. Auch hierdurch kann die Menge des Lichts reduziert werden, welche nicht aus dem Scanbereich bzw. aus dem Detektionsbereich stammt.
Nach einer anderen Weiterbildung der Vorrichtung umfasst die Vorrichtung einen Filter, der vor der ersten Kamera angeordnet ist und im Wesentlichen nur für Licht einer ersten sichtbaren Wellenlänge und/oder einer zweiten sichtbaren Wellenlänge und/oder einer dritten sichtbaren Wellenlänge und/oder infraroter Wellenlänge durchlässig ist.
Die damit einhergehenden Vorteile sind bereits in Bezug auf das
erfindungsgemäße Verfahren oben beschrieben worden.
Weitere Ausgestaltungen werden nun anhand der Zeichnung näher erläutert. In der schematischen Zeichnung zeigt Figur 1 ein Ablaufdiagramm gemäß einem Ausführungsbeispiel des
erfindungsgemäßen Messverfahrens ,
Figur 2 eine Vorrichtung zur Durchführung des Messverfahrens gemäß einem erfindungsgemäßen Aus führungsbeispiel ,
Figur 3 in einer Ebene der Lichtquellenbilder die Position der Augen eines
Betrachters relativ zu Lichtquellenbildern des Beleuchtungslichts, wobei die Ebene der Lichtquellenbilder in diesem Ausführungsbeispiel parallel zur Oberfläche des steuerbaren räumlichen Lichtmodulators angeordnet ist,
Figur 4 in einer Aufsicht ein Ausführungsbeispiel der Vorrichtung zur
Durchführung des erfindungsgemäßen Messverfahrens und die Augen eines Betrachters und
Figur 5 in einer Diagrammdarstellung die Transmissionscharakteristik eines
Dreifach-Bandpassfilters .
Figur 1 zeigt in schematischer Darstellung ein Ablaufdiagramm gemäß einem Ausführungsbeispiel des erfindungsgemäßen Messverfahrens.
In einem ersten Schritt 1 wird ein Objekt durch vorbestimmte Beleuchtung mittels eines Anzeigegerätes beleuchtet und durch die Intensitätsverteilung des Beleuchtungslichts in einer Ebene eines Lichtquellenbildes ein erster Ort eines Objektes markiert.
In einem zweiten Schritt 2 wird die Relativposition des ersten Ortes in Bezug auf einen zweiten Ort des Objektes in einem Koordinatensystem einer Kamera bestimmt .
Figur 2 zeigt ein Ausführungsbeispiel einer erfindungsgemäßen Vorrichtung 3. Die Vorrichtung 3 weist ein Anzeigegerät 4, eine Kamera 5 und eine
Auswerteeinheit 6 auf. Das Anzeigegerät beinhaltet eine Lichtquelle 7, einen räumlichen Modulator für Licht 8 und ein optisches System 9.
Wird eine Lichtquelle geringer Ausdehnung auf eine große Fläche aufgeweitet, die in Figur 2 mit 7 bezeichnet wird, so erzeugt ein optisches System, welches zumindest in einer Richtung eine fokussierende Wirkung aufweist, zumindest in einer Richtung ein Lichtquellenbild, welches beispielsweise nahe der Ebene 13 liegt. Ist 7 eine leuchtende Fläche, so liegt in 13 eine
Intensitätsverteilung vor, die proportional zum Planwellenspektrum der leuchtenden Fläche ist. Ein räumlicher Modulator kann dabei eine
Beugungsverbreiterung einführen.
Räumliche Modulatoren für Licht 8 sind auch unter ihrer englischen
Bezeichnung Spatial Light Modulator bzw. der Abkürzung SLM bekannt und dienen dazu Licht eine räumliche Modulation aufzuprägen. Typischerweise modulieren SLMs die Intensität des Lichts. Es sind jedoch auch SLMs bekannt, welche die Phase modulieren, und es ist darüber hinaus denkbar mit einem SLM die Phase und die Intensität gleichzeitig zu modulieren.
In dem gezeigten Ausführungsbeispiel wird das Anzeigegerät 4 über eine Verbindung 10 von der Auswerteeinheit 6 angesteuert und die Beleuchtung vorbestimmt, mit der das Anzeigegerät 4 ein Objekt 11 beleuchtet. Vorliegend handelt es sich bei dem Objekt 11 um einen Betrachter des Anzeigegerätes 4. Mittels der vorbestimmten Beleuchtung wird eine Intensitätsverteilung des Beleuchtungslichts 12 in einer Ebene eines Lichtquellenbildes 13 erzeugt und damit ein erster Ort des Objektes 11 markiert.
Im Allgemeinen kann die in der Ebene 13 vom Anzeigegerät erzeugte
Intensitätsverteilung deutlich kleiner als in Figur 2 ausfallen. Es kann sich beispielsweise dabei auch um ein Sichtbarkeitsfenster handeln, welches eine Abmessung von 10 mm x 10 mm oder auch nur einen Durchmesser von 3 mm aufweist . Mit der Kamera 5 wird die Intensitätsverteilung des Beleuchtungslichts 12 in der Ebene des Lichtquellenbildes 13 erfasst und der erste Ort des Objektes mit der Kamera 5 erfasst. Die Kamera 5 erfasst ebenfalls einen zweiten Ort des Objektes 11, hier die Augenpupille 14 des Betrachters. Aus den von der Kamera 5 über die Verbindung 15 zur Verfügung gestellten Daten bestimmt dann die Auswerteeinheit 6 die Relativposition des ersten Ortes in Bezug auf den zweiten Ort des Objektes 11 in dem Koordinatensystem der Kamera 5.
Die Figur 3 zeigt die Position der Augen 16 und 17 eines Betrachters, dessen Gesicht (in Figur 3 nicht gezeigt) mittels eines Anzeigegeräts (in Figur 3 nicht gezeigt) , insbesondere eines holographischen oder autostereoskopischen Anzeigegerätes, beleuchtet wird. Bei der Beleuchtung des Betrachters mit dem Anzeigegerät weist die Intensitätsverteilung des Beleuchtungslichts häufig Lichtquellenbilder mehrerer Beugungsordnungen 18-30 auf. Die Figur 3 zeigt Beugungsordnungen 18-30, welche mittels einer zweidimensionalen Kodierung erhalten wurden und als schwarze Kreisflächen dargestellt sind. Als
Lichtquellenbild der 0. Beugungsordnung wird dabei das ungebeugte
Lichtquellenbild 18 bezeichnet. Der Bereich, welcher das ungebeugte
Lichtquellenbild 18 umfasst und bis zu den nächstliegenden
Lichtquellenbildern 19-22 höherer Beugungsordnung reicht, wird als
Sichtbarkeitsfenster 31 oder Viewing Window bezeichnet. Das
Sichtbarkeitsfenster 31 ist in der Figur 3 als Ellipse skizziert. Vom
Sichtbarkeitsfenster 31 weiter entfernt liegende Lichtquellenbilder können, beispielsweise durch ein kosinusförmig verlaufendes Apodisationsprofil der Pixel des steuerbaren räumlichen Lichtmodulators, wie beispielsweise in der WO 2009/156191 AI beschrieben, in ihrer Intensität reduziert werden. Deckt sich das Sichtbarkeitsfenster 31 wie in der Figur 3 gezeigt mit der Position des Auges 16, können die anderen Lichtquellenbilder soweit unterdrückt werden, dass sie von dem anderen Auge 17 nicht mehr wahrgenommen werden. Damit dies auch bei einer Bewegung der Augen sichergestellt werden kann, wird typischerweise die Beleuchtung kontinuierlich an die Position der Augen angepasst. Die dafür zu berücksichtigenden Augenbewegungen sind in der Figur 3 durch vier kurze Pfeile angedeutet. Figur 4 zeigt ein weiteres Ausführungsbeispiel einer erfindungsgemäßen
Vorrichtung 32. Die Vorrichtung 32 weist ein Anzeigegerät 33, zwei Kameras 34, 35 und eine Auswerteeinheit 36 auf. Die Ausrichtung und Position der beiden Kameras 34, 35 in Bezug auf das Anzeigegerät 33 ist durch die Montage fest vorgegeben. Mit anderen Worten sind die Koordinatensysteme der beiden Kameras 34, 35 kalibriert.
Der Raum vor der Vorrichtung 32, in welchem sich der Betrachter befindet, wird mit den beiden Kameras 34, 35 erfasst, wobei anhand der Kamerabilder das Gesicht des Betrachters erkannt wird. Die Position der Augenpupillen 37, 38 wird in den kalibrierten Koordinatensystemen der jeweiligen Kamera 34, 35 bestimmt. Dadurch erhält man zunächst für die Augenpupille 37 zwei
Richtungsvektoren 39, 40, welche von den Positionen der Kameras 34, 35 ausgehen und in Richtung der Augenpupille 37 zeigen. Aus dem Schnittpunkt der die beiden Richtungsvektoren 39, 40 aufspannenden Geraden, kann dann der Abstand der Augenpupille 37 von dem Anzeigegerät 33 bzw. die Relativposition zwischen der Augenpupille 37 und dem Anzeigegerät 33 ermittelt werden. Mit der zweiten Augenpupille 37 wird auf die gleich Art und Weise verfahren.
Beim Transport der Vorrichtung 32 kann es passieren, dass sich die Position der Kameras 34, 35 oder deren Ausrichtung gegenüber dem Anzeigegerät 33 ungewollt verändert. Deren Koordinatensystem ist somit nicht mehr in Bezug auf das Anzeigegerät 33 kalibriert.
Die Abstände der auf einem Objekt erzeugten Lichtquellenbilder (vgl. Figur 3) können durch das native Pixelraster des Anzeigegerätes 33 fest vorgegeben sein, z.B. als Fouriertransformierte des steuerbaren räumlichen
Lichtmodulators, insbesondere, wenn eine Anzeigevorrichtung gemäß der WO 2006/066919 AI eingesetzt wird bzw. das erfindungsgemäße Messverfahren auf eine in der WO 2006/066919 AI offenbarte Anzeigevorrichtung angewendet wird. Zur Kalibration der Vorrichtung 32 können die Lichtquellenbilder mehrerer Beugungsordnungen 18-30, d.h. das Lichtquellenbildraster, mit der jeweiligen Kamera 34, 35 erfasst werden und aus der Relativposition der
Lichtquellenbilder in den jeweiligen Koordinatensystemen der Kameras 34, 35 kann die Position der Objektes bestimmt werden. Da die Position der
Lichtquellenbilder in Bezug auf das Anzeigegerät 33 bekannt ist, kann die Vorrichtung somit neu kalibriert werden.

Claims

Patentansprüche
Messverfahren,
wobei durch vorbestimmte Beleuchtung mittels eines Anzeigegerätes, insbesondere eines holographischen oder autostereoskopischen
Anzeigegerätes, mit einer Intensitätsverteilung des Beleuchtungslichts in einer Ebene eines Lichtquellenbilds ein erster Ort eines Objektes, insbesondere eines Betrachter des Anzeigegeräts, markiert wird und wobei die Relativposition des ersten Ortes in Bezug auf einen zweiten Ort des Objektes in einem Koordinatensystem einer Kamera bestimmt wird
Messverfahren nach Anspruch 1,
wobei die Intensitätsverteilung des Beleuchtungslichts in der Ebene de Lichtquellenbilds ein Lichtquellenbild einer Beugungsordnung aufweist.
Messverfahren nach Anspruch 1 oder 2,
wobei der zweite Ort eine Augenpupille des Betrachters ist und die Relativposition des ersten Ortes in Bezug auf die Augenpupille des Betrachters in dem Koordinatensystem der Kamera bestimmt wird.
Messverfahren nach einem der Ansprüche 1 bis 3,
wobei durch Änderung der vorbestimmten Beleuchtung der erste Ort mit einem vorgebbaren Bereich des Gesichts des Betrachters, insbesondere mit der Augenpupille des Betrachters, in Deckung gebracht wird.
Messverfahren nach einem der Ansprüche 1 bis 4,
wobei als Intensitätsverteilung des Beleuchtungslichts in einer Ebene eines Lichtquellenbilds oder als Lichtquellenbild ein
Sichtbarkeitsfenster eines dem Betrachter anzuzeigenden Bildes verwendet wird.
Messverfahren nach einem der Ansprüche 1 bis 5,
wobei durch vorbestimmte Beleuchtung mittels des Anzeigegerätes mit einer zweiten Intensitätsverteilung des Beleuchtungslichts in einer Ebene eines zweiten Lichtquellenbilds der zweite Ort des Objektes definiert wird.
Messverfahren nach Anspruch 6,
wobei mit der ersten und der zweiten Intensitätsverteilung des
Beleuchtungslichts ein vorgebbares Muster auf dem Objekt, insbesondere dem Gesicht des Betrachters, gebildet wird,
wobei mit der Kamera ein Bild des Musters aufgenommen wird, und wobei das aufgenommene Bild des Musters auf Abweichungen zu dem vorgebbaren Muster untersucht wird.
Messverfahren nach Anspruch 6,
wobei als erstes Lichtquellenbild eine erste Beugungsordnung und zweites Lichtquellenbild eine andere Beugungsordnung verwendet wi
9. Messverfahren nach einem der Ansprüche 1, 6, 7 oder 8,
wobei ein kalibriertes Objekt verwendet wird.
10. Messverfahren nach einem der Ansprüche 6 bis 9,
wobei aus der Relativposition des ersten Ortes in Bezug auf den zweiten Ort in dem Koordinatensystem der Kamera das Koordinatensystem der Kamera in Bezug auf ein Koordinatensystem des Anzeigegerätes kalibriert wird.
11. Messverfahren nach einem der Ansprüche 1 bis 10,
wobei die Kamera in einem vorbestimmten Abstand und/oder einer vorbestimmten Ausrichtung zum Anzeigegerät angeordnet wird, und wobei aus der Relativposition des ersten Ortes in Bezug auf den zweiten
Ort in dem Koordinatensystem der Kamera die Position des zweiten Ortes in einem Koordinatensystem des Anzeigegerätes bestimmt wird.
Messverfahren nach einem der voranstehenden Ansprüche,
wobei das erste Lichtquellenbild und/oder das zweite Lichtquellenbild durch ein optisches System des Anzeigegerätes und durch eine
vorbestimmte Beleuchtung eines steuerbaren räumlichen Lichtmodulators mit Licht einer ersten sichtbaren Wellenlänge und/oder einer zweiten sichtbaren Wellenlänge und/oder einer dritten Wellenlänge und/oder einer infraroten Wellenlänge erzeugt wird, und
wobei die Kamera und/oder eine weitere Kamera mit einem Filter versehe wird, der im Wesentlichen nur Licht der ersten sichtbaren Wellenlänge und/oder der zweiten sichtbaren Wellenlänge und/oder der dritten sichtbaren Wellenlänge und/oder infraroter Wellenlängen durchlässig
13. Messverfahren nach einem der Ansprüche 1 bis 12,
wobei die Relativposition des ersten Ortes in Bezug auf den zweiten Ort in einem zweiten Koordinatensystem einer zweiten Kamera bestimmt wird.
14. Messverfahren nach einem der Ansprüche 4 bis 13,
wobei durch vorbestimmte Beleuchtung mittels eines Anzeigegerätes, insbesondere eines holographischen oder autostereoskopischen Anzeigegerätes, mit einer Intensitätsverteilung des Beleuchtungslichts in einer Ebene eines Lichtquellenbilds ein erster Ort eines Betrachters des Anzeigegeräts markiert wird,
wobei als Intensitätsverteilung des Beleuchtungslichts in einer Ebene eines Lichtquellenbilds oder als Lichtquellenbild ein
Sichtbarkeitsfenster eines dem Betrachter anzuzeigenden Bildes verwendet wird,
wobei die Relativposition des ersten Ortes in Bezug auf die
Augenpupille des Betrachters in dem Koordinatensystem der Kamera bestimmt wird,
wobei durch Änderung der vorbestimmten Beleuchtung der erste Ort mit einem vorgebbaren Bereich des Gesichts des Betrachters, insbesondere mit der Augenpupille des Betrachters, in Deckung gebracht wird.
5. Vorrichtung zur Durchführung eines Messverfahrens gemäß einem der
Ansprüche 1 bis 14,
wobei die Vorrichtung ein Anzeigegerät, insbesondere ein
holographisches Anzeigegerät oder ein autostereoskopisches
Anzeigegerät, eine Kamera und eine Auswerteeinheit zur Bestimmung der Position des ersten Ortes in einem Koordinatensystem der Kamera aufweist .
6. Vorrichtung nach Anspruch 15,
wobei die Kamera einen CCD-Sensor oder einen CMOS-Sensor umfasst und/oder wobei die Kamera eine Farbkamera ist.
7. Vorrichtung nach Anspruch 15 oder 16,
welche eine Lichtquelle umfasst, wobei mit der Lichtquelle und dem optischen System eine Intensitätsverteilung des Beleuchtungslichts in einer Ebene eines Lichtquellenbilds erzeugbar ist.
8. Vorrichtung nach einem der Ansprüche 15 bis 17,
wobei die Vorrichtung einen Filter umfasst,
wobei der Filter vor der ersten Kamera angeordnet ist, und
wobei der Filter im Wesentlichen nur für Licht einer ersten sichtbaren Wellenlänge und/oder einer zweiten sichtbaren Wellenlänge und/oder einer dritten sichtbaren Wellenlänge und/oder infrarote Wellenlänge durchlässig ist.
PCT/EP2012/074289 2011-12-02 2012-12-03 Messverfahren und vorrichtung zur durchführung des messverfahrens WO2013079727A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201280068981.2A CN104205006B (zh) 2011-12-02 2012-12-03 测量方法及执行该测量方法的装置
US14/361,743 US11675426B2 (en) 2011-12-02 2012-12-03 Measurement method and device for performing the measurement method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102011055967.1A DE102011055967B4 (de) 2011-12-02 2011-12-02 Messverfahren und Vorrichtung zur Durchführung des Messverfahrens
DE102011055967.1 2011-12-02

Publications (1)

Publication Number Publication Date
WO2013079727A1 true WO2013079727A1 (de) 2013-06-06

Family

ID=47520897

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2012/074289 WO2013079727A1 (de) 2011-12-02 2012-12-03 Messverfahren und vorrichtung zur durchführung des messverfahrens

Country Status (5)

Country Link
US (1) US11675426B2 (de)
CN (1) CN104205006B (de)
DE (1) DE102011055967B4 (de)
TW (1) TWI588441B (de)
WO (1) WO2013079727A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019149994A1 (en) * 2018-02-01 2019-08-08 Varjo Technologies Oy Gaze-tracking system using illuminators emitting different wavelengths

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10775878B2 (en) * 2015-04-10 2020-09-15 Sony Interactive Entertainment Inc. Control of personal space content presented via head mounted display

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0821908A1 (de) * 1996-08-01 1998-02-04 Sharp Kabushiki Kaisha Augendetektionsystem
WO2001033323A2 (de) * 1999-10-30 2001-05-10 HEINRICH-HERTZ-INSTITUT FüR NACHRICHTENTECHNIK BERLIN GMBH Rechnerunterstütztes verfahren zur berührungslosen, videobasierten blickrichtungsbestimmung eines anwenderauges für die augengeführte mensch-computer-interaktion und vorrichtung zur durchführung des verfahrens
WO2005046465A1 (en) * 2003-11-14 2005-05-26 Queen's University At Kingston Method and apparatus for calibration-free eye tracking
WO2006066919A1 (en) 2004-12-23 2006-06-29 Seereal Technologies Gmbh A method of computing a hologram
WO2009101238A1 (en) * 2008-02-14 2009-08-20 Nokia Corporation Device and method for determining gaze direction
WO2009156191A1 (de) 2008-06-26 2009-12-30 Seereal Technologies S.A. Holographisches direktsichtdisplay mit apodisationseinrichtung
EP2236074A1 (de) * 2009-04-01 2010-10-06 Tobii Technology AB Sichtanzeige mit Illuminatoren zur Blickverfolgung
WO2010149587A2 (de) * 2009-06-23 2010-12-29 Seereal Technologies S.A. Lichtmodulationsvorrichtung für ein display zur darstellung zwei- und/oder dreidimensionaler bildinhalte

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4973149A (en) * 1987-08-19 1990-11-27 Center For Innovative Technology Eye movement detector
EP0961506B1 (de) * 1998-05-20 2003-03-26 Texas Instruments France Autostereoskopische Anzeigevorrichtung
US6578962B1 (en) * 2001-04-27 2003-06-17 International Business Machines Corporation Calibration-free eye gaze tracking
US7306337B2 (en) * 2003-03-06 2007-12-11 Rensselaer Polytechnic Institute Calibration-free gaze tracking under natural head movement
US7963652B2 (en) * 2003-11-14 2011-06-21 Queen's University At Kingston Method and apparatus for calibration-free eye tracking
CN101512445B (zh) * 2006-09-01 2013-07-17 视瑞尔技术公司 借助亚全息图实时生成视频全息图的方法
DE102007010807B4 (de) * 2007-03-02 2012-11-15 B.R. Deutschland, vertr. d. d. Bundesministerium f. Wirtschaft u.Technologie, dieses vertr. d. d. Präs. d. Phys.-Techn. Bundesanstalt Verfahren und Vorrichtung zur Vermessung der Topografie einer Oberfläche eines Messobjekts
DE102007030378A1 (de) * 2007-06-29 2009-01-02 Spatial View Gmbh Dresden System zur Bestimmung der Lage eines Kamerasystems
US8878917B2 (en) * 2008-04-22 2014-11-04 Ehn Spire Limited Liability Company Position-permissive autostereoscopic display systems and methods
US20110157322A1 (en) * 2009-12-31 2011-06-30 Broadcom Corporation Controlling a pixel array to support an adaptable light manipulator

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0821908A1 (de) * 1996-08-01 1998-02-04 Sharp Kabushiki Kaisha Augendetektionsystem
WO2001033323A2 (de) * 1999-10-30 2001-05-10 HEINRICH-HERTZ-INSTITUT FüR NACHRICHTENTECHNIK BERLIN GMBH Rechnerunterstütztes verfahren zur berührungslosen, videobasierten blickrichtungsbestimmung eines anwenderauges für die augengeführte mensch-computer-interaktion und vorrichtung zur durchführung des verfahrens
WO2005046465A1 (en) * 2003-11-14 2005-05-26 Queen's University At Kingston Method and apparatus for calibration-free eye tracking
WO2006066919A1 (en) 2004-12-23 2006-06-29 Seereal Technologies Gmbh A method of computing a hologram
WO2009101238A1 (en) * 2008-02-14 2009-08-20 Nokia Corporation Device and method for determining gaze direction
WO2009156191A1 (de) 2008-06-26 2009-12-30 Seereal Technologies S.A. Holographisches direktsichtdisplay mit apodisationseinrichtung
EP2236074A1 (de) * 2009-04-01 2010-10-06 Tobii Technology AB Sichtanzeige mit Illuminatoren zur Blickverfolgung
WO2010149587A2 (de) * 2009-06-23 2010-12-29 Seereal Technologies S.A. Lichtmodulationsvorrichtung für ein display zur darstellung zwei- und/oder dreidimensionaler bildinhalte

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019149994A1 (en) * 2018-02-01 2019-08-08 Varjo Technologies Oy Gaze-tracking system using illuminators emitting different wavelengths
US10564429B2 (en) 2018-02-01 2020-02-18 Varjo Technologies Oy Gaze-tracking system using illuminators emitting different wavelengths

Also Published As

Publication number Publication date
DE102011055967A1 (de) 2013-06-06
CN104205006B (zh) 2018-04-06
TW201329416A (zh) 2013-07-16
CN104205006A (zh) 2014-12-10
US11675426B2 (en) 2023-06-13
DE102011055967B4 (de) 2016-03-10
TWI588441B (zh) 2017-06-21
US20140327612A1 (en) 2014-11-06

Similar Documents

Publication Publication Date Title
DE69826753T2 (de) Optischer Profilsensor
DE19983341B4 (de) Verfahren und Einrichtung zur Erfassung stereoskopischer Bilder unter Verwendung von Bildsensoren
DE102012112321B4 (de) Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE102012112322B4 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung
EP1971820B1 (de) Erstellung eines abstandsbildes
DE69635891T2 (de) Verbesserte optische kamera zur entfernungsmessung
DE3738667C2 (de)
DE112015007146T5 (de) Vorrichtung und verfahren zur dreidimensionalen bildmessung
DE202012104890U1 (de) Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
EP2019281B1 (de) Verfahren zum Betrieb eines 3D-Sensors
DE102010040518A1 (de) Bildaufnahmegerät, Bilddarstellungsverfahren und Aufnahmemedium sowie darauf aufgenommenes Bilddarstellungsprogramm
DE112009001652T5 (de) Mehrkanal-Erfassung
DE102016217628B4 (de) Verfahren zum Betreiben eines Operationsmikroskopiesystems, Bewegungsmesssystem für ein Operationsmikroskopiesystem und Operationsmikroskopiesystem
DE102008002730A1 (de) Verfahren und Vorrichtung zur 3D-Rekonstruktion
DE112009000516T5 (de) Intraorales Abbildungssystem und Verfahren, das auf der konoskopischen Holographie beruht
DE19924096C2 (de) System zur stereoskopischen Bilddarstellung
EP1950583A1 (de) Nachtsichtsystem, insbesondere für ein Fahrzeug, und Verfahren zum Erstellen eines Nachtsichtbildes
DE102008002725A1 (de) Verfahren und Vorrichtung zur 3D-Rekonstruktion
CH709003A2 (de) Distanzbestimmung aus Bildern mit Referenzobjekt.
DE10084477B4 (de) Messung der Konvergenzausrichtung eines Projektionssystems
WO2009132761A1 (de) Entfernungsmesssystem
DE102006006001B3 (de) Verfahren und Anordnung zum Einblenden ortsbezogener Informationen in eine visuelle Darstellung oder Ansicht einer Szene
DE102009015204A1 (de) Optischer Sensor
WO2013079727A1 (de) Messverfahren und vorrichtung zur durchführung des messverfahrens
DE102012102580A1 (de) Verfahren zum Messen eines Objektes sowie Intraoral-Scanner

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12812541

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12812541

Country of ref document: EP

Kind code of ref document: A1