DE102011055967B4 - Messverfahren und Vorrichtung zur Durchführung des Messverfahrens - Google Patents

Messverfahren und Vorrichtung zur Durchführung des Messverfahrens Download PDF

Info

Publication number
DE102011055967B4
DE102011055967B4 DE102011055967.1A DE102011055967A DE102011055967B4 DE 102011055967 B4 DE102011055967 B4 DE 102011055967B4 DE 102011055967 A DE102011055967 A DE 102011055967A DE 102011055967 B4 DE102011055967 B4 DE 102011055967B4
Authority
DE
Germany
Prior art keywords
location
light source
camera
display device
measuring method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102011055967.1A
Other languages
English (en)
Other versions
DE102011055967A1 (de
Inventor
Dr. Fütterer Gerald
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SeeReal Technologies SA
Original Assignee
SeeReal Technologies SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SeeReal Technologies SA filed Critical SeeReal Technologies SA
Priority to DE102011055967.1A priority Critical patent/DE102011055967B4/de
Priority to CN201280068981.2A priority patent/CN104205006B/zh
Priority to TW101145251A priority patent/TWI588441B/zh
Priority to US14/361,743 priority patent/US11675426B2/en
Priority to PCT/EP2012/074289 priority patent/WO2013079727A1/de
Publication of DE102011055967A1 publication Critical patent/DE102011055967A1/de
Application granted granted Critical
Publication of DE102011055967B4 publication Critical patent/DE102011055967B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking

Abstract

Messverfahren zur Bestimmung der Relativposition desjenigen Ortes, welchen eine vorbestimmte Lichtintensitätsverteilung als einen ersten Ort eines Objekts markiert, in Bezug auf einen zweiten Ort des Objekts, bei dem – die Lichtintensitätsverteilung erzeugt wird – mit einem Anzeigegerät zur dreidimensionalen Wahrnehmung einer angezeigten Szene, insbesondere einem holographischen oder autostereoskopischen Anzeigegerät, mittels einer Lichtquelle, einem räumlichen Lichtmodulator und einem optischen System des Anzeigegeräts und – in einer das Objekt, insbesondere eines Betrachters des Anzeigegeräts, aufweisenden Ebene eines Lichtquellenbilds der Lichtquelle, und – der erste Ort des Objekts und der zweite Ort des Objekts mit einer Kamera erfasst und die Relativposition des ersten Ortes des Objekts in Bezug auf den zweiten Ort des Objekts in einem wenigstens zweidimensional ausgebildeten Koordinatensystem der Kamera bestimmt wird.

Description

  • Die vorliegende Erfindung betrifft ein Messverfahren sowie eine Vorrichtung zur Durchführung des Messverfahrens.
  • Anzeigegeräte, die Betrachtern eine echte räumliche, d.h. dreidimensionale Wahrnehmung erlauben, werden immer populärer.
  • Typischerweise benötigen Betrachter dieser Anzeigegeräte Hilfsmittel, z.B. Helme, Spots, Polarisationsbrillen oder Shutterbrillen, um die von den Anzeigegeräten angezeigten Szenen dreidimensional wahrnehmen zu können.
  • Es sind auch Anzeigegeräte bekannt, die den Betrachtern eine Betrachtung ohne zusätzliche Hilfsmittel ermöglichen. Typischerweise wird bei diesen Anzeigegeräten, z.B. autostereoskopischen Anzeigegeräten oder holographischen Anzeigegeräten, eine Information darüber benötigt, wo sich der oder die Betrachter in Bezug auf das Anzeigegerät aufhalten.
  • Üblicherweise werden zu diesem Zweck zwei Kameras genutzt, die den Raum vor dem Anzeigegerät erfassen. Mit den Kameras verbundene Auswerteeinheiten erkennen das Gesicht eines Betrachters des Anzeigegerätes und können insbesondere die Position der Augenpupillen des Betrachters in Bezug auf die Position der Kameras bestimmen. Die Erfassungsrichtung der Kameras in Bezug auf das Anzeigegerät ist dabei fest vorgegeben, so dass sich aus der Position der Augenpupillen in Bezug auf die Kameras die Position der Augenpupillen in Bezug auf das Anzeigegerät bestimmen lässt. Während des Transports der Vorrichtung kann es passieren, dass sich die Position und insbesondere die Ausrichtung der Kameras in Bezug auf das Anzeigegerät verstellen. Somit kann die Position der Augenpupillen in Bezug auf das Anzeigegerät nicht mehr genau bzw. korrekt bestimmt werden und es ist eine Neukalibrierung der Vorrichtung notwendig.
  • Weiter sind spezielle Vorrichtungen bekannt, mit denen Objekte dreidimensional vermessen werden können. Typischerweise werden bei diesen Vorrichtungen mit einem Laser Linien auf dem Objekt erzeugt. Bilder von dem mit diesen Linien beleuchteten Objekt werden dann mit einer Kamera aufgenommen und aus der Verzerrung der Linien wird dann die Form des Objektes berechnet und als digitales Modell hinterlegt. Um einem Betrachter die Möglichkeit zu geben, dieses digitale Modell zu begutachten, ist zusätzlich jedoch noch ein digitales Anzeigegerät notwendig.
  • Aus der Druckschrift DE 10 2007 030 378 A1 ist weiterhin ein Verfahren zur Kalibrierung eines Kamerasystems bezüglich der Lage zu einem Displaysystem bekannt. Dieses benötigt für die Kalibrierung ein zusätzliches abbildendes System, welches im Sichtbereich des Kamerasystems während der Kalibrierung angeordnet werden muss, mit welchem Hauptkalibrierelemente auf das Kamerasystem abgebildet werden.
  • Hiervon ausgehend liegt der Erfindung demzufolge die Aufgabe zugrunde, ein Messverfahren und eine Vorrichtung mit verringertem apparativem Aufwand anzugeben.
  • Erfindungsgemäß wird diese Aufgabe mit den Gegenständen der unabhängigen Patentansprüche 1 und 15 gelöst. Vorteilhafte Ausgestaltungen der Erfindung sind in den auf die Patentansprüche 1 und 15 rückbezogenen Patentansprüchen 2 bis 14 sowie 16 bis 17 genannt. So besteht die Lösung der Aufgabe in einem Messverfahren, zur Bestimmung der Relativposition desjenigen Ortes, welchen eine vorbestimmte Lichtintensitätsverteilung als einen ersten Ort eines Objekts markiert, in Bezug auf einen zweiten Ort des Objekts, bei dem
    • – die Lichtintensitätsverteilung erzeugt wird – mit einem Anzeigegerät zur dreidimensionalen Wahrnehmung einer angezeigten Szene, insbesondere einem holographischen oder autostereoskopischen Anzeigegerät, mittels einer Lichtquelle, einem räumlichen Lichtmodulator und einem optischen System des Anzeigegeräts und – in einer das Objekt, insbesondere eines Betrachters des Anzeigegeräts, aufweisenden Ebene eines Lichtquellenbilds der Lichtquelle, und
    • – der erste Ort des Objekts und der zweite Ort des Objekts mit einer Kamera erfasst und die Relativposition des ersten Ortes des Objekts in Bezug auf den zweiten Ort des Objekts in einem wenigstens zweidimensional ausgebildeten Koordinatensystem der Kamera bestimmt wird.
  • Der Erfindung liegt der Gedanke zugrunde, das Anzeigegerät selbst als Mittel zur Bestimmung der Relativposition des ersten Ortes des Objektes in Bezug auf einen zweiten Ort des Objektes zu verwenden. Da die Beleuchtung für die Anzeige von Bildinformationen durch das Anzeigegerät selbst vorgegeben wird, kann die Position des ersten Ortes des Objektes und mittels der Relativposition des zweiten Ortes in Bezug auf den ersten Ort im Koordinatensystem der Kamera auch die Position des zweiten Ortes des Objektes im Koordinatensystem des Anzeigegerätes bestimmt werden.
  • Eine Kalibrierung der Kamera, d.h. die Bestimmung von deren Position und Ausrichtung, in Bezug auf das Koordinatensystem des Anzeigegerätes kann dadurch entbehrlich werden.
  • Durch die Verwendung eines holographischen Anzeigegerätes kann die Intensitätsverteilung des Beleuchtungslichts in der Ebene des Lichtquellenbildes durch konstruktive bzw. destruktive Interferenz kohärenter Lichtstrahlen erzeugt werden. Auf diese Weise kann gezielt eine stark mit dem Abstand des Objektes vom Anzeigegerät variierende Intensitätsverteilung des Beleuchtungslichts erzielt werden.
  • Ein autostereoskopisches Anzeigegerät kann gegenüber einem holographischen Anzeigegerät aus einfacheren Baugruppen zusammengesetzt sein. Insbesondere benötigen autostereoskopische Anzeigegeräte keine Lichtquellen, die Licht großer Kohärenzlänge erzeugen, um dreidimensionale Szenen darzustellen. Die Verwendung eines autostereoskopischen Anzeigegerätes kann das Verfahren somit günstiger machen.
  • Die Markierung des ersten Ortes eines Betrachters des Anzeigegerätes kann vor allem dann vorteilhaft sein, wenn das Anzeigegerät mit dem Betrachter interagieren soll. Es ist allerdings auch denkbar, den ersten Ort eines unbelebten Gegenstands zu markieren, so dass er vermessen werden kann, oder gezielt mit einer Textur beleuchtet werden kann.
  • Nach einer ersten Weiterbildung des Messverfahrens weist die Intensitätsverteilung des Beleuchtungslichts in der Ebene des Lichtquellenbilds ein Lichtquellenbild einer Beugungsordnung auf.
  • Anzeigegeräte weisen typischerweise einen räumlichen Modulator für Licht mit einer vorgegebenen Rasterung auf. Die Rasterung des räumlichen Modulators kann als natürliches Beugungsgitter mit einem vorherbestimmten Gitterabstand genutzt werden, so dass die Intensitätsverteilung des Beleuchtungslichts in der Ebene des Lichtquellenbilds ein Lichtquellenbild einer Beugungsordnung aufweisen kann. Denkbar ist, das Lichtquellenbild der 0. Beugungsordnung, d.h. das ungebeugte Lichtquellenbild, zu verwenden. Es können jedoch auch höhere Beugungsordnungen verwendet werden. Es können auch mehrere Beugungsordnungen zur Erzeugung der Intensitätsverteilung verwendet werden, beispielsweise um die Präzision des Messverfahrens zu erhöhen, da mehrere Lichtquellenbilder detektierbar sind. Durch den vorgegebenen Gitterabstand können die Abstände der Maxima und/oder Minima in der Intensitätsverteilung sehr genau vorgegeben werden. Es ist möglich, die Genauigkeit der Bestimmung der Relativposition des ersten Ortes in Bezug auf den zweiten Ort sehr genau vorzugeben.
  • Gemäß einer weiteren Ausgestaltung des Messverfahrens ist der zweite Ort eine Augenpupille des Betrachters und die Relativposition des ersten Ortes wird in Bezug auf die Augenpupille des Betrachters in dem Koordinatensystem der Kamera bestimmt. Die Augenpupillen des Betrachters sind sehr markante Punkte bzw. Bereiche auf dem Gesicht des Betrachters. Sie können somit relativ einfach von einer mit der Kamera verbundenen Auswertelogik erkannt werden. Zudem kann die Bestimmung der Relativposition des ersten Ortes in Bezug auf die Position einer Augenpupille des Betrachters eine Steuerung in Abhängigkeit der Augenpupillenposition des Betrachters ermöglichen. Davon können insbesondere Betrachter profitierten, die sich aus körperlichen Gründen nicht anders verständlich machen können.
  • Ferner sieht ein Ausführungsbeispiel des Messverfahrens vor, dass durch Änderung der vorbestimmten Beleuchtung der erste Ort mit einem vorgebbaren Bereich des Gesichts des Betrachters, insbesondere mit der Augenpupille des Betrachters, in Deckung gebracht wird. Hierdurch kann eine Betrachternachführung (engl.: Tracking) realisiert werden.
  • Bei Anzeigegeräten, die Betrachtern eine echte dreidimensionale Wahrnehmung ohne Hilfsmittel wie z.B. Polarisationsbrillen oder Shutterbrillen ermöglichen sollen, kann es vorteilhaft sein, nicht nur die Relativposition des ersten Ortes in Bezug auf den zweiten Ort zu bestimmen, sondern diese direkt in Deckung zu bringen. Auf diese Weise kann es möglich werden, gezielt nur einen vorgebbaren Bereich des Gesichts des Betrachters bei der Wiedergabe von z.B. Filmszenen zu beleuchten. Auf diese Weise kann der Rechenaufwand bei der Berechnung der dreidimensionalen Darstellung reduziert werden.
  • Nach einer anderen Weiterbildung des Messverfahrens wird als Intensitätsverteilung des Beleuchtungslichts in einer Ebene eines Lichtquellenbilds oder als Lichtquellenbild ein dem Betrachter anzuzeigendes Bild verwendet.
  • Die Verwendung des dem Betrachter anzuzeigenden Bildes kann es ermöglichen, das Messverfahren auch dann durchzuführen, wenn es als Anzeigegerät für den Betrachter verwendet wird. Wenn es sich um ein dreidimensionale Szenen darstellendes Anzeigegerät handelt, kann die Darstellung an eine sich ändernde Position des Betrachters angepasst werden.
  • Gemäß einer weiteren Ausgestaltung des Messverfahrens wird durch vorbestimmte Beleuchtung mittels des Anzeigegerätes mit einer zweiten Intensitätsverteilung des Beleuchtungslichts in einer Ebene eines zweiten Lichtquellenbilds der zweite Ort des Objektes definiert.
  • Der Abstand zwischen dem ersten Ort des Objektes und dem zweiten Ort kann auf diese Weise im Koordinatensystem des Anzeigegeräts bekannt sein und somit aus dem Relativabstand des ersten Ortes in Bezug auf den zweiten Ort im Koordinatensystem der Kamera die Position und Ausrichtung der Kamera in Bezug auf das Anzeigegerät bestimmt werden.
  • Die zweite Intensitätsverteilung des Beugungslichts in der Ebene des zweiten Lichtquellenbilds kann ein Lichtquellenbild einer Beugungsordnung aufweisen. Die Verwendung von Beugungsordnungen als Lichtquellenbilder kann den Vorteil haben, dass deren Abstände bzw. die zugrunde liegenden Beugungswinkel durch eine Rasterung des Anzeigegerätes fest vorgegeben sein können. Es kann somit die Reproduzierbarkeit der Messung verbessert sein.
  • Ferner sieht ein Ausführungsbeispiel des Messverfahrens vor, dass mit der ersten und der zweiten Intensitätsverteilung des Beleuchtungslichts ein vorgebbares Muster auf dem Objekt, insbesondere dem Gesicht des Betrachters, gebildet wird, dass mit der Kamera ein Bild des Musters aufgenommen wird, und dass das aufgenommene Bild des Musters auf Abweichungen zu dem vorgebbaren Muster untersucht wird.
  • Durch Ermittlung der Abweichungen zu dem vorgebbaren Muster ist es denkbar, die Form des Objektes zu ermitteln. Es kann ggf. auch festgestellt werden, ob das Objekt einem vorgegebenen Objekt oder einem anderen Objekt entspricht.
  • Nach einer anderen Weiterbildung des Messverfahrens wird als erstes Lichtquellenbild eine erste Beugungsordnung und als zweites Lichtquellenbild eine andere Beugungsordnung verwendet.
  • Die Verwendung von definierten Beugungsordnungen als Lichtquellenbilder kann den Vorteil haben, dass deren Abstand durch eine Rasterung des Anzeigegerätes fest vorgegeben sein kann, so dass die gemessenen Relativpositionen auf absolute Positionen zurückgeführt werden können. Das Beugungsmuster ergibt sich aus der Rasterung des Anzeigegerätes bzw. eines steuerbaren räumlichen Lichtmodulators des Anzeigegerätes, der Wellenlänge des verwendeten Lichtes bzw. den verwendeten Wellenlängen und dem Abstand zur beleuchteten Ebene, d.h. dem Abstand zum beleuchteten Objekt.
  • Gemäß einer weiteren Ausgestaltung des Messverfahrens wird ein kalibriertes Objekt verwendet. Unter einem kalibrierten Objekt wird ein Objekt mit einer hinreichend genau bekannten Form verstanden. Aus der Bestimmung der Relativposition des ersten Ortes des Objektes in Bezug auf den zweiten Ort des kalibrierten Objektes im Koordinatensystem der Kamera kann die Position und Ausrichtung der Kamera in Bezug auf das Koordinatensystem des Anzeigegerätes mit verbesserter Genauigkeit bestimmt werden.
  • Ferner sieht ein Ausführungsbeispiel des Messverfahrens vor, dass aus der Relativposition des ersten Ortes in Bezug auf den zweiten Ort in dem Koordinatensystem der Kamera das Koordinatensystem der Kamera in Bezug auf ein Koordinatensystem des Anzeigegerätes kalibriert wird.
  • Die Kalibration des Koordinatensystems der Kamera kann es ermöglichen, auf die laufende Bestimmung der Relativposition zu verzichten, da die Position des zweiten Ortes des Objektes im Koordinatensystem des Anzeigegerätes auch bestimmt werden kann, ohne dass ein erster Ort des Objektes durch vorbestimmte Beleuchtung markiert werden muss. Eine Kalibrierung ist nur in größeren Abständen notwendig, wenn sich die Ausrichtung und/oder Position der Kamera verstellt haben sollte. Eine Kalibrierung kann insbesondere nach einem Transport der Vorrichtung notwendig werden. Es ist denkbar, die Kalibrierung in vorgegebenen Zeitabständen durchzuführen. Vorstellbar ist es aber auch, die Kalibrierung nur auf explizite Anforderung des Betrachters durchzuführen.
  • Nach einer anderen Weiterbildung des Messverfahrens wird die Kamera in einem vorbestimmten Abstand und/oder einer vorbestimmten Ausrichtung zum Anzeigegerät angeordnet und aus der Relativposition des ersten Ortes in Bezug auf den zweiten Ort in dem Koordinatensystem der Kamera die Position des zweiten Ortes in einem Koordinatensystem des Anzeigegerätes bestimmt. Dadurch kann insbesondere die Form des Objektes bestimmt werden.
  • Gemäß einer weiteren Ausgestaltung des Messverfahrens wird das erste Lichtquellenbild und das zweite Lichtquellenbild durch ein optisches System des Anzeigegerätes und durch eine vorbestimmte Beleuchtung eines steuerbaren räumlichen Lichtmodulators mit Licht einer ersten sichtbaren Wellenlänge und/oder einer zweiten sichtbaren Wellenlänge und/oder einer dritten sichtbaren Wellenlänge und/oder einer infraroten Wellenlänge erzeugt und die Kamera und/oder eine weitere Kamera mit einem Filter versehen, der im Wesentlichen nur Licht der ersten sichtbaren Wellenlänge und/oder der zweiten sichtbaren Wellenlänge und/oder der dritten sichtbaren Wellenlänge und/oder infraroter Wellenlänge durchlässt.
  • Durch die Verwendung von Licht einer definierten Wellenlänge und eines entsprechenden Filters kann das Signal-Rausch-Verhältnis verbessert werden. Insbesondere kann eine Beeinflussung des Messergebnisses durch Umgebungslicht reduziert werden. Die Verwendung eines für Licht infraroter Wellenlänge durchlässigen Filters kann insbesondere bei der Erfassung des Betrachters vorteilhaft sein. Beispielsweise kann ggf. die Position der Augenpupillen des Betrachters einfacher zu bestimmen sein, wenn der Filter der Kamera lediglich Licht infraroter Wellenlänge durchlässt.
  • Typischerweise werden Betrachtern mit Anzeigegeräten der hier beschriebenen Art farbige Lichtquellenbilder gezeigt, die aus Licht dreier Wellenlängen gebildet werden. Durch die Nutzung aller drei Wellenlängen lässt sich die Genauigkeit der Messungen verbessern.
  • Ferner sieht ein anderes Ausführungsbeispiel des Messverfahrens vor, dass die Relativposition des ersten Ortes in Bezug auf den zweiten Ort in einem zweiten Koordinatensystem einer zweiten Kamera bestimmt wird.
  • Durch die Verwendung einer zweiten Kamera können zusätzlich zu Informationen über die Richtungen, in denen sich der erste Ort des Objektes und der zweite Ort des Objektes befinden, auch Informationen über den Abstand des ersten und des zweiten Objektes von dem Anzeigegerät erhalten werden. Weitere Kameras können ggf. die Ortsauflösung weiter verbessern.
  • Nach einem weiteren Ausführungsbeispiel des Messverfahrens wird durch vorbestimmte Beleuchtung mittels eines Anzeigegerätes, insbesondere eines holographischen oder autostereoskopischen Anzeigegerätes, mit einer Intensitätsverteilung des Beleuchtungslichts in einer Ebene eines Lichtquellenbilds ein erster Ort eines Betrachters des Anzeigegeräts markiert, wobei als Intensitätsverteilung des Beleuchtungslichts in einer Ebene eines Lichtquellenbilds oder als Lichtquellenbild ein Sichtbarkeitsfenster eines dem Betrachter anzuzeigenden Bildes verwendet wird, wobei die Relativposition des ersten Ortes in Bezug auf die Augenpupille des Betrachters in dem Koordinatensystem der Kamera bestimmt wird, und wobei durch Änderung der vorbestimmten Beleuchtung der erste Ort mit einem vorgebbaren Bereich des Gesichts des Betrachters, insbesondere mit der Augenpupille des Betrachters, in Deckung gebracht wird. Das Messverfahren kann für beide Augenpupillen durchgeführt werden. Es können dem Betrachter für jede Augenpupille spezifische Bildinformationen zur Verfügung gestellt werden. Damit kann beispielsweise ein besonders guter Tiefeneindruck vermittelt werden. Zudem kann das Sichtbarkeitsfenster kontinuierlich der Position der Augen nachgeführt werden, so dass vermieden werden kann, dass Lichtbilder höherer Beugungsordnungen von den Augenpupillen erfasst werden.
  • Andererseits wird die oben genannte Aufgabe durch eine Vorrichtung zur Durchführung des Messverfahrens gelöst, wobei die Vorrichtung aufweist:
    • – ein Anzeigegerät zur dreidimensionalen Wahrnehmung einer angezeigten Szene, insbesondere ein holographisches oder autostereoskopisches Anzeigegerät, mit dem mittels einer Lichtquelle, einem räumlichen Lichtmodulator und einem optischen System eine Lichtintensitätsverteilung in einer Ebene eines Lichtquellenbildes der Lichrquelle erzeugbar ist,
    • – wenigstens eine Kamera, und
    • – eine Auswerteeinheit zur Bestimmung der Relativposition desjenigen Ortes, welchen eine vorbestimmte Lichtintensitätsverteilung als einen ersten Ort eines Objekts markiert, in Bezug auf einen zweiten Ort des Objekts in einem wenigstens zweidimensional ausgebildeten Koordinatensystem der Kamera.
  • Die mit einem solchen Anzeigegerät, insbesondere mit einem holographischen Anzeigegerät oder einem autostereoskopischen Anzeigegerät, einhergehenden Vorteile sind in Bezug auf das erfindungsgemäße Verfahren bereits oben beschrieben worden.
  • Nach einer ersten Weiterbildung der Vorrichtung umfasst die Kamera einen CCD-Sensor.
  • CCD-Sensoren können einen besonders hohen Dynamikumfang haben, d.h. sowohl sehr helle als auch sehr dunkle Bereiche des Bildbereichs erfassen.
  • Alternativ kann die Kamera auch einen CMOS-Sensor aufweisen. Im Allgemeinen weisen CMOS-Sensoren einen höheren Dynamikbereich als CCD-Sensoren auf, wobei CCD-Sensoren im Vergleich zu CMOS-Sensoren im Allgemeinen eine höhere Bit-Tiefe aufweisen. CMOS-Sensoren können typischerweise auch langwelligeres, infrarotes Licht erfassen.
  • Die Kamera könnte auch eine Farbkamera sein. Durch das zusätzliche Ausnutzen der Farbinformationen kann die Genauigkeit der Relativpositionsbestimmung weiter verbessert werden.
  • Ferner sieht ein Ausführungsbeispiel der Vorrichtung vor, dass die Vorrichtung eine Lichtquelle und ein optisches System umfasst, wobei mit der Lichtquelle und dem optischen System eine Intensitätsverteilung des Beleuchtungslichts in einer Ebene eines Lichtquellenbildes erzeugbar ist.
  • Nach einer anderen Weiterbildung der Vorrichtung umfasst die Vorrichtung einen Filter, der vor der Kamera angeordnet ist und im Wesentlichen nur für Licht einer ersten sichtbaren Wellenlänge und/oder einer zweiten sichtbaren Wellenlänge und/oder einer dritten sichtbaren Wellenlänge und/oder infraroter Wellenlänge durchlässig ist.
  • Die damit einhergehenden Vorteile sind bereits in Bezug auf das erfindungsgemäße Verfahren oben beschrieben worden.
  • Weitere Ausgestaltungen werden nun anhand der Zeichnung näher erläutert. In der schematischen Zeichnung zeigt
  • 1 ein Ablaufdiagramm gemäß einem Ausführungsbeispiel des erfindungsgemäßen Messverfahrens,
  • 2 eine Vorrichtung zur Durchführung des Messverfahrens gemäß einem erfindungsgemäßen Ausführungsbeispiel,
  • 3 in einer Ebene der Lichtquellenbilder die Position der Augen eines Betrachters relativ zu Lichtquellenbildern des Beleuchtungslichts, wobei die Ebene der Lichtquellenbilder in diesem Ausführungsbeispiel parallel zur Oberfläche des steuerbaren räumlichen Lichtmodulators angeordnet ist, und
  • 4 in einer Aufsicht ein Ausführungsbeispiel der Vorrichtung zur Durchführung des erfindungsgemäßen Messverfahrens und die Augen eines Betrachters.
  • 1 zeigt in schematischer Darstellung ein Ablaufdiagramm gemäß einem Ausführungsbeispiel des erfindungsgemäßen Messverfahrens.
  • In einem ersten Schritt 1 wird ein Objekt durch vorbestimmte Beleuchtung mittels eines Anzeigegerätes beleuchtet und durch die Intensitätsverteilung des Beleuchtungslichts in einer Ebene eines Lichtquellenbildes ein erster Ort eines Objektes markiert.
  • In einem zweiten Schritt 2 wird die Relativposition des ersten Ortes in Bezug auf einen zweiten Ort des Objektes in einem Koordinatensystem einer Kamera bestimmt.
  • 2 zeigt ein Ausführungsbeispiel einer erfindungsgemäßen Vorrichtung 3. Die Vorrichtung 3 weist ein Anzeigegerät 4, eine Kamera 5 und eine Auswerteeinheit 6 auf. Das Anzeigegerät beinhaltet eine Lichtquelle 7, einen räumlichen Modulator für Licht 8 und ein optisches System 9.
  • Wird eine Lichtquelle geringer Ausdehnung auf eine große Fläche aufgeweitet, die in 2 mit 7 bezeichnet wird, so erzeugt ein optisches System, welches zumindest in einer Richtung eine fokussierende Wirkung aufweist, zumindest in einer Richtung ein Lichtquellenbild, welches beispielsweise nahe der Ebene 13 liegt. Ist 7 eine leuchtende Fläche, so liegt in 13 eine Intensitätsverteilung vor, die proportional zum Planwellenspektrum der leuchtenden Fläche ist. Ein räumlicher Modulator kann dabei eine Beugungsverbreiterung einführen.
  • Räumliche Modulatoren für Licht 8 sind auch unter ihrer englischen Bezeichnung Spatial Light Modulator bzw. der Abkürzung SLM bekannt und dienen dazu, Licht eine räumliche Modulation aufzuprägen. Typischerweise modulieren SLMs die Intensität des Lichts. Es sind jedoch auch SLMs bekannt, welche die Phase modulieren, und es ist darüber hinaus denkbar, mit einem SLM die Phase und die Intensität gleichzeitig zu modulieren.
  • In dem gezeigten Ausführungsbeispiel wird das Anzeigegerät 4 über eine Verbindung 10 von der Auswerteeinheit 6 angesteuert und die Beleuchtung vorbestimmt, mit der das Anzeigegerät 4 ein Objekt 11 beleuchtet. Vorliegend handelt es sich bei dem Objekt 11 um einen Betrachter des Anzeigegerätes 4. Mittels der vorbestimmten Beleuchtung wird eine Intensitätsverteilung des Beleuchtungslichts 12 in einer Ebene eines Lichtquellenbildes 13 erzeugt und damit ein erster Ort des Objektes 11 markiert.
  • Im Allgemeinen kann die in der Ebene 13 vom Anzeigegerät erzeugte Intensitätsverteilung deutlich kleiner als in 2 ausfallen. Es kann sich beispielsweise dabei auch um ein Sichtbarkeitsfenster handeln, welches eine Abmessung von 10 mm × 10 mm oder auch nur einen Durchmesser von 3 mm aufweist.
  • Mit der Kamera 5 wird die Intensitätsverteilung des Beleuchtungslichts 12 in der Ebene des Lichtquellenbildes 13 erfasst und der erste Ort des Objektes mit der Kamera 5 erfasst. Die Kamera 5 erfasst ebenfalls einen zweiten Ort des Objektes 11, hier die Augenpupille 14 des Betrachters. Aus den von der Kamera 5 über die Verbindung 15 zur Verfügung gestellten Daten bestimmt dann die Auswerteeinheit 6 die Relativposition des ersten Ortes in Bezug auf den zweiten Ort des Objektes 11 in dem Koordinatensystem der Kamera 5.
  • Die 3 zeigt die Position der Augen 16 und 17 eines Betrachters, dessen Gesicht (in 3 nicht gezeigt) mittels eines Anzeigegeräts (in 3 nicht gezeigt), insbesondere eines holographischen oder autostereoskopischen Anzeigegerätes, beleuchtet wird. Bei der Beleuchtung des Betrachters mit dem Anzeigegerät weist die Intensitätsverteilung des Beleuchtungslichts häufig Lichtquellenbilder mehrerer Beugungsordnungen 1830 auf. Die 3 zeigt Beugungsordnungen 1830, welche mittels einer zweidimensionalen Kodierung erhalten wurden und als schwarze Kreisflächen dargestellt sind. Als Lichtquellenbild der 0. Beugungsordnung wird dabei das ungebeugte Lichtquellenbild 18 bezeichnet. Der Bereich, welcher das ungebeugte Lichtquellenbild 18 umfasst und bis zu den nächstliegenden Lichtquellenbildern 1922 höherer Beugungsordnung reicht, wird als Sichtbarkeitsfenster 31 oder Viewing Window bezeichnet. Das Sichtbarkeitsfenster 31 ist in der 3 als Ellipse skizziert. Vom Sichtbarkeitsfenster 31 weiter entfernt liegende Lichtquellenbilder können, beispielsweise durch ein kosinusförmig verlaufendes Apodisationsprofil der Pixel des steuerbaren räumlichen Lichtmodulators, wie beispielsweise in der WO 2009/156191 A1 beschrieben, in ihrer Intensität reduziert werden. Deckt sich das Sichtbarkeitsfenster 31 wie in der 3 gezeigt mit der Position des Auges 16, können die anderen Lichtquellenbilder soweit unterdrückt werden, dass sie von dem anderen Auge 17 nicht mehr wahrgenommen werden. Damit dies auch bei einer Bewegung der Augen sichergestellt werden kann, wird typischerweise die Beleuchtung kontinuierlich an die Position der Augen angepasst. Die dafür zu berücksichtigenden Augenbewegungen sind in der 3 durch vier kurze Pfeile angedeutet.
  • 4 zeigt ein weiteres Ausführungsbeispiel einer erfindungsgemäßen Vorrichtung 32. Die Vorrichtung 32 weist ein Anzeigegerät 33, zwei Kameras 34, 35 und eine Auswerteeinheit 36 auf. Die Ausrichtung und Position der beiden Kameras 34, 35 in Bezug auf das Anzeigegerät 33 ist durch die Montage fest vorgegeben. Mit anderen Worten sind die Koordinatensysteme der beiden Kameras 34, 35 kalibriert.
  • Der Raum vor der Vorrichtung 32, in welchem sich der Betrachter befindet, wird mit den beiden Kameras 34, 35 erfasst, wobei anhand der Kamerabilder das Gesicht des Betrachters erkannt wird. Die Position der Augenpupillen 37, 38 wird in den kalibrierten Koordinatensystemen der jeweiligen Kamera 34, 35 bestimmt. Dadurch erhält man zunächst für die Augenpupille 37 zwei Richtungsvektoren 39, 40, welche von den Positionen der Kameras 34, 35 ausgehen und in Richtung der Augenpupille 37 zeigen. Aus dem Schnittpunkt der die beiden Richtungsvektoren 39, 40 aufspannenden Geraden kann dann der Abstand der Augenpupille 37 von dem Anzeigegerät 33 bzw. die Relativposition zwischen der Augenpupille 37 und dem Anzeigegerät 33 ermittelt werden. Mit der zweiten Augenpupille 37 wird auf die gleiche Art und Weise verfahren.
  • Beim Transport der Vorrichtung 32 kann es passieren, dass sich die Position der Kameras 34, 35 oder deren Ausrichtung gegenüber dem Anzeigegerät 33 ungewollt verändert. Deren Koordinatensystem ist somit nicht mehr in Bezug auf das Anzeigegerät 33 kalibriert.
  • Die Abstände der auf einem Objekt erzeugten Lichtquellenbilder (vgl. 3) können durch das native Pixelraster des Anzeigegerätes 33 fest vorgegeben sein, z.B. als Fouriertransformierte des steuerbaren räumlichen Lichtmodulators, insbesondere wenn eine Anzeigevorrichtung gemäß der WO 2006/066919 A1 eingesetzt wird bzw. das erfindungsgemäße Messverfahren auf eine in der WO 2006/066919 A1 offenbarte Anzeigevorrichtung angewendet wird. Zur Kalibration der Vorrichtung 32 können die Lichtquellenbilder mehrerer Beugungsordnungen 1830, d.h. das Lichtquellenbildraster, mit der jeweiligen Kamera 34, 35 erfasst werden und aus der Relativposition der Lichtquellenbilder in den jeweiligen Koordinatensystemen der Kameras 34, 35 kann die Position des Objektes bestimmt werden. Da die Position der Lichtquellenbilder in Bezug auf das Anzeigegerät 33 bekannt ist, kann die Vorrichtung somit neu kalibriert werden.

Claims (17)

  1. Messverfahren zur Bestimmung der Relativposition desjenigen Ortes, welchen eine vorbestimmte Lichtintensitätsverteilung als einen ersten Ort eines Objekts markiert, in Bezug auf einen zweiten Ort des Objekts, bei dem – die Lichtintensitätsverteilung erzeugt wird – mit einem Anzeigegerät zur dreidimensionalen Wahrnehmung einer angezeigten Szene, insbesondere einem holographischen oder autostereoskopischen Anzeigegerät, mittels einer Lichtquelle, einem räumlichen Lichtmodulator und einem optischen System des Anzeigegeräts und – in einer das Objekt, insbesondere eines Betrachters des Anzeigegeräts, aufweisenden Ebene eines Lichtquellenbilds der Lichtquelle, und – der erste Ort des Objekts und der zweite Ort des Objekts mit einer Kamera erfasst und die Relativposition des ersten Ortes des Objekts in Bezug auf den zweiten Ort des Objekts in einem wenigstens zweidimensional ausgebildeten Koordinatensystem der Kamera bestimmt wird.
  2. Messverfahren nach Anspruch 1, wobei die Intensitätsverteilung des Beleuchtungslichts in der Ebene des Lichtquellenbilds ein Lichtquellenbild einer Beugungsordnung aufweist.
  3. Messverfahren nach Anspruch 1 oder 2, wobei der zweite Ort des Objekts eine Augenpupille des Betrachters ist und die Relativposition des ersten Ortes des Objekts in Bezug auf die Augenpupille des Betrachters in dem Koordinatensystem der Kamera bestimmt wird.
  4. Messverfahren nach einem der Ansprüche 1 bis 3, wobei durch Änderung der vorbestimmten Beleuchtung der erste Ort des Objekts mit einem vorgebbaren Bereich des Gesichts des Betrachters, insbesondere mit der Augenpupille des Betrachters, in Deckung gebracht wird.
  5. Messverfahren nach einem der Ansprüche 1 bis 4, wobei als Intensitätsverteilung des Beleuchtungslichts in einer Ebene eines Lichtquellenbilds oder als Lichtquellenbild ein Sichtbarkeitsfenster eines dem Betrachter anzuzeigenden Bildes verwendet wird.
  6. Messverfahren nach einem der Ansprüche 1 bis 5, wobei durch vorbestimmte Beleuchtung mittels des Anzeigegerätes mit einer zweiten Intensitätsverteilung des Beleuchtungslichts in einer Ebene eines zweiten Lichtquellenbilds der zweite Ort des Objektes definiert wird.
  7. Messverfahren nach Anspruch 6, wobei mit der ersten und der zweiten Intensitätsverteilung des Beleuchtungslichts ein vorgebbares Muster auf dem Objekt, insbesondere dem Gesicht des Betrachters, gebildet wird, wobei mit der Kamera ein Bild des Musters aufgenommen wird, und wobei das aufgenommene Bild des Musters auf Abweichungen zu dem vorgebbaren Muster untersucht wird.
  8. Messverfahren nach Anspruch 6, wobei als erstes Lichtquellenbild eine erste Beugungsordnung und als zweites Lichtquellenbild eine andere Beugungsordnung verwendet wird.
  9. Messverfahren nach einem der Ansprüche 1, 6, 7 oder 8, wobei ein kalibriertes Objekt verwendet wird.
  10. Messverfahren nach einem der Ansprüche 6 bis 9, wobei aus der Relativposition des ersten Ortes des Objekts in Bezug auf den zweiten Ort des Objekts in dem Koordinatensystem der Kamera das Koordinatensystem der Kamera in Bezug auf ein Koordinatensystem des Anzeigegerätes kalibriert wird.
  11. Messverfahren nach einem der Ansprüche 1 bis 10, wobei die Kamera in einem vorbestimmten Abstand und/oder einer vorbestimmten Ausrichtung zum Anzeigegerät angeordnet wird, und wobei aus der Relativposition des ersten Ortes des Objekts in Bezug auf den zweiten Ort des Objekts in dem Koordinatensystem der Kamera die Position des zweiten Ortes des Objekts in einem Koordinatensystem des Anzeigegerätes bestimmt wird.
  12. Messverfahren nach einem der voranstehenden Ansprüche, wobei das erste Lichtquellenbild und/oder das zweite Lichtquellenbild durch das optische System des Anzeigegerätes und durch eine vorbestimmte Beleuchtung des steuerbaren räumlichen Lichtmodulators mit Licht einer ersten sichtbaren Wellenlänge und/oder einer zweiten sichtbaren Wellenlänge und/oder einer dritten Wellenlänge und/oder einer infraroten Wellenlänge erzeugt wird, und wobei die Kamera und/oder eine weitere Kamera mit einem Filter versehen wird, der im Wesentlichen nur Licht der ersten sichtbaren Wellenlänge und/oder der zweiten sichtbaren Wellenlänge und/oder der dritten sichtbaren Wellenlänge und/oder infraroter Wellenlängen durchlässt.
  13. Messverfahren nach einem der Ansprüche 1 bis 12, wobei die Relativposition des ersten Ortes des Objekts in Bezug auf den zweiten Ort des Objekts in einem zweiten wenigstens zweidimensional ausgebildeten Koordinatensystem einer zweiten Kamera bestimmt wird.
  14. Messverfahren nach einem der Ansprüche 4 bis 13, wobei durch vorbestimmte Beleuchtung mittels eines Anzeigegerätes, insbesondere eines holographischen oder autostereoskopischen Anzeigegerätes, mit einer Intensitätsverteilung des Beleuchtungslichts in einer Ebene eines Lichtquellenbilds ein erster Ort des Objekts eines Betrachters des Anzeigegeräts markiert wird, wobei als Intensitätsverteilung des Beleuchtungslichts in einer Ebene eines Lichtquellenbilds oder als Lichtquellenbild ein Sichtbarkeitsfenster eines dem Betrachter anzuzeigenden Bildes verwendet wird, wobei die Relativposition des ersten Ortes des Objekts in Bezug auf die Augenpupille des Betrachters in dem Koordinatensystem der Kamera bestimmt wird, wobei durch Änderung der vorbestimmten Beleuchtung der erste Ort des Objekts mit einem vorgebbaren Bereich des Gesichts des Betrachters, insbesondere mit der Augenpupille des Betrachters, in Deckung gebracht wird.
  15. Vorrichtung geeignet zur Durchführung eines Messverfahrens nach einem der Ansprüche 1 bis 14, aufweisend – ein Anzeigegerät zur dreidimensionalen Wahrnehmung einer angezeigten Szene, insbesondere ein holographisches oder autostereoskopisches Anzeigegerät, mit dem mittels einer Lichtquelle, einem räumlichen Lichtmodulator und einem optischen System eine Lichtintensitätsverteilung in einer Ebene eines Lichtquellenbildes der Lichrquelle erzeugbar ist, – wenigstens eine Kamera, und – eine Auswerteeinheit zur Bestimmung der Relativposition desjenigen Ortes, welchen eine vorbestimmte Lichtintensitätsverteilung als einen ersten Ort eines Objekts markiert, in Bezug auf einen zweiten Ort des Objekts in einem wenigstens zweidimensional ausgebildeten Koordinatensystem der Kamera.
  16. Vorrichtung nach Anspruch 15, wobei die Kamera einen CCD-Sensor oder einen CMOS-Sensor umfasst und/oder wobei die Kamera eine Farbkamera ist.
  17. Vorrichtung nach einem der Ansprüche 15 oder 16, wobei die Vorrichtung einen Filter umfasst, wobei der Filter vor der Kamera angeordnet ist, und wobei der Filter im Wesentlichen nur für Licht einer ersten sichtbaren Wellenlänge und/oder einer zweiten sichtbaren Wellenlänge und/oder einer dritten sichtbaren Wellenlänge und/oder infrarote Wellenlänge durchlässig ist.
DE102011055967.1A 2011-12-02 2011-12-02 Messverfahren und Vorrichtung zur Durchführung des Messverfahrens Active DE102011055967B4 (de)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE102011055967.1A DE102011055967B4 (de) 2011-12-02 2011-12-02 Messverfahren und Vorrichtung zur Durchführung des Messverfahrens
CN201280068981.2A CN104205006B (zh) 2011-12-02 2012-12-03 测量方法及执行该测量方法的装置
TW101145251A TWI588441B (zh) 2011-12-02 2012-12-03 Measuring method and apparatus for carrying out the measuring method
US14/361,743 US11675426B2 (en) 2011-12-02 2012-12-03 Measurement method and device for performing the measurement method
PCT/EP2012/074289 WO2013079727A1 (de) 2011-12-02 2012-12-03 Messverfahren und vorrichtung zur durchführung des messverfahrens

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102011055967.1A DE102011055967B4 (de) 2011-12-02 2011-12-02 Messverfahren und Vorrichtung zur Durchführung des Messverfahrens

Publications (2)

Publication Number Publication Date
DE102011055967A1 DE102011055967A1 (de) 2013-06-06
DE102011055967B4 true DE102011055967B4 (de) 2016-03-10

Family

ID=47520897

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102011055967.1A Active DE102011055967B4 (de) 2011-12-02 2011-12-02 Messverfahren und Vorrichtung zur Durchführung des Messverfahrens

Country Status (5)

Country Link
US (1) US11675426B2 (de)
CN (1) CN104205006B (de)
DE (1) DE102011055967B4 (de)
TW (1) TWI588441B (de)
WO (1) WO2013079727A1 (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10775878B2 (en) * 2015-04-10 2020-09-15 Sony Interactive Entertainment Inc. Control of personal space content presented via head mounted display
US10564429B2 (en) * 2018-02-01 2020-02-18 Varjo Technologies Oy Gaze-tracking system using illuminators emitting different wavelengths

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006066919A1 (en) * 2004-12-23 2006-06-29 Seereal Technologies Gmbh A method of computing a hologram
DE102007010807A1 (de) * 2007-03-02 2008-09-04 B.R. Deutschland, vertr. d. d. Bundesministerium f. Wirtschaft u.Technologie, dieses vertr. d. d. Präs. d. Phys.-Techn. Bundesanstalt Verfahren und Vorrichtung zur Vermessung der Topografie einer Oberfläche eines Messobjekts
DE102007030378A1 (de) * 2007-06-29 2009-01-02 Spatial View Gmbh Dresden System zur Bestimmung der Lage eines Kamerasystems
WO2009156191A1 (de) * 2008-06-26 2009-12-30 Seereal Technologies S.A. Holographisches direktsichtdisplay mit apodisationseinrichtung

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4973149A (en) * 1987-08-19 1990-11-27 Center For Innovative Technology Eye movement detector
GB2315858A (en) * 1996-08-01 1998-02-11 Sharp Kk System for eye detection and gaze direction determination
DE69812591T2 (de) * 1998-05-20 2004-03-25 Texas Instruments France Autostereoskopische Anzeigevorrichtung
DE19953835C1 (de) * 1999-10-30 2001-05-23 Hertz Inst Heinrich Rechnerunterstütztes Verfahren zur berührungslosen, videobasierten Blickrichtungsbestimmung eines Anwenderauges für die augengeführte Mensch-Computer-Interaktion und Vorrichtung zur Durchführung des Verfahrens
US6578962B1 (en) * 2001-04-27 2003-06-17 International Business Machines Corporation Calibration-free eye gaze tracking
US7306337B2 (en) * 2003-03-06 2007-12-11 Rensselaer Polytechnic Institute Calibration-free gaze tracking under natural head movement
US7963652B2 (en) * 2003-11-14 2011-06-21 Queen's University At Kingston Method and apparatus for calibration-free eye tracking
CA2545202C (en) * 2003-11-14 2014-01-14 Queen's University At Kingston Method and apparatus for calibration-free eye tracking
CN101512445B (zh) * 2006-09-01 2013-07-17 视瑞尔技术公司 借助亚全息图实时生成视频全息图的方法
PL2242419T3 (pl) * 2008-02-14 2016-05-31 Nokia Technologies Oy Urządzenie i sposób określania kierunku spojrzenia
WO2009130699A2 (en) * 2008-04-22 2009-10-29 3Ality, Inc. Position-permissive autostereoscopic display systems and methods
ES2880475T3 (es) * 2009-04-01 2021-11-24 Tobii Ab Sistema de representación visual con iluminadores para el seguimiento de la mirada
CN102483605B (zh) * 2009-06-23 2015-09-30 视瑞尔技术公司 用于显示二和/或三维图像内容的显示器的光调制器装置
US8964013B2 (en) * 2009-12-31 2015-02-24 Broadcom Corporation Display with elastic light manipulator

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006066919A1 (en) * 2004-12-23 2006-06-29 Seereal Technologies Gmbh A method of computing a hologram
DE102007010807A1 (de) * 2007-03-02 2008-09-04 B.R. Deutschland, vertr. d. d. Bundesministerium f. Wirtschaft u.Technologie, dieses vertr. d. d. Präs. d. Phys.-Techn. Bundesanstalt Verfahren und Vorrichtung zur Vermessung der Topografie einer Oberfläche eines Messobjekts
DE102007030378A1 (de) * 2007-06-29 2009-01-02 Spatial View Gmbh Dresden System zur Bestimmung der Lage eines Kamerasystems
WO2009156191A1 (de) * 2008-06-26 2009-12-30 Seereal Technologies S.A. Holographisches direktsichtdisplay mit apodisationseinrichtung

Also Published As

Publication number Publication date
US11675426B2 (en) 2023-06-13
CN104205006B (zh) 2018-04-06
TW201329416A (zh) 2013-07-16
CN104205006A (zh) 2014-12-10
US20140327612A1 (en) 2014-11-06
WO2013079727A1 (de) 2013-06-06
TWI588441B (zh) 2017-06-21
DE102011055967A1 (de) 2013-06-06

Similar Documents

Publication Publication Date Title
EP3557523B1 (de) Verfahren zur erzeugung eines korrekturmodells einer kamera zur korrektur eines abbildungsfehlers
DE102012112321B4 (de) Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE69826753T2 (de) Optischer Profilsensor
AT506110B1 (de) Vorrichtung und verfahren zur erfassung von körpermassdaten und konturdaten
DE19727281C1 (de) Verfahren und Vorrichtung zur geometrischen Kalibrierung von CCD-Kameras
DE102012106584B4 (de) Verfahren und Vorrichtung zur Bildrekonstruktion
DE60133026T2 (de) Genaues ausrichten von bildern in digitalen abbildungssystemen durch anpassen von punkten in den bildern
DE102006048234A1 (de) Verfahren und Vorrichtung zur Bestimmung der 3D-Koordinaten eines Objekts
DE112011103006T5 (de) Verfahren und Vorrichtung zum Messen der Form eines Objekts
DE102015122172A1 (de) Scheinwerferbasierte Projetion von Mustern zur Vermessung räumlicher Eigenschaften einer Fahrzeugumgebung
DE102013014475A1 (de) Verfahren zur Kalibrierung einer optischen Messvorrichtung, optisches Messverfahren und optische Messvorrichtung
CH709003A2 (de) Distanzbestimmung aus Bildern mit Referenzobjekt.
EP3711289B1 (de) Verfahren zur automatischen wiederherstellung eines eingemessenen zustands eines projektionssystems
DE102011055967B4 (de) Messverfahren und Vorrichtung zur Durchführung des Messverfahrens
DE102014104903A1 (de) Verfahren und Sensor zum Erzeugen und Erfassen von Mustern auf einer Oberfläche
EP3783303A1 (de) Verfahren und vorrichtung zum vermessen einer optischen linse für individuelle tragesituationen eines nutzers
DE102021111417A1 (de) Verfahren und System zu Bestimmung der Lage eines Markers in einem 2D-Bild und dafür ausgebildeter Marker
DE102007032471A1 (de) Verfahren und Vorrichtung zur Bestimmung der Lage eines Kamerasystems relativ zu einem Objekt
EP3049757B1 (de) Fahrwerksvermessung bei umgebungslicht
DE102012024223B4 (de) Verfahren und Vorrichtung zum Bestimmen der 3D-Koordinaten eines Objekts
DE102018101995B3 (de) 6Vorrichtung zur Messung nach dem Lichtschnitt-Triangulationsverfahren
DE102017000454B4 (de) Verfahren und System zum Kalibrieren von Bilddaten zweier Kameras
EP4220077A1 (de) Kalibriersystem zum kalibrieren eines kamerasystems und zugehöriges kalibriersystem
EP3602098B1 (de) Schallquellen-visualisierungssystem
WO2024032971A1 (de) Vorrichtung und verfahren zur vermessung dreidimensionaler virtueller bilder und objekte eines head-up-displays

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final