DE102014108310B4 - Optisches Laufzeitsystem - Google Patents

Optisches Laufzeitsystem Download PDF

Info

Publication number
DE102014108310B4
DE102014108310B4 DE102014108310.5A DE102014108310A DE102014108310B4 DE 102014108310 B4 DE102014108310 B4 DE 102014108310B4 DE 102014108310 A DE102014108310 A DE 102014108310A DE 102014108310 B4 DE102014108310 B4 DE 102014108310B4
Authority
DE
Germany
Prior art keywords
light
aperture
detector
light pulse
calculated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102014108310.5A
Other languages
English (en)
Other versions
DE102014108310A1 (de
Inventor
Shrenik Deliwala
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Analog Devices Inc
Original Assignee
Analog Devices Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Analog Devices Inc filed Critical Analog Devices Inc
Publication of DE102014108310A1 publication Critical patent/DE102014108310A1/de
Application granted granted Critical
Publication of DE102014108310B4 publication Critical patent/DE102014108310B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/783Systems for determining direction or deviation from predetermined direction using amplitude comparison of signals derived from static detectors or detector systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4816Constructional features, e.g. arrangements of optical elements of receivers alone

Abstract

Laufzeitsystem (10), das Folgendes umfasst:einen Sender (11), der einen Lichtpuls emittiert;einen Detektor (12) mit mehreren Lichtsensoren (13, 14), die jeweils einen unterschiedlichen Teil des Lichtpulses, der durch eine Apertur (15) in den Detektor (12) tritt, detektieren, nachdem er von dem Sender emittiert und an einem Objekt (1, 2) reflektiert wird, wobei die Apertur als eine Öffnung oder als ein transparenter oder lichtdurchlässiger Abschnitt ausgebildet ist;eine Berechnungseinrichtung (17), die mit dem Sender (11) und dem Detektor (12) gekoppelt ist, zum Berechnen einer Laufzeit des Lichtpulses und einer Position des Objekts (1, 2) relativ zum Detektor (12) auf der Basis der berechneten Laufzeit und eines berechneten Anteils der Teile des an den Lichtsensoren (13, 14) detektierten reflektierten Lichtpulses; und wobeider Detektor (12) eine Oberfläche mit der Apertur (15) enthält und die Lichtsensoren (13, 14) ein Paar von Photodetektoren enthalten die voneinander an einer dazwischenliegenden Grenze isoliert sind, wobei die Grenze mit der Apertur (15) ausgerichtet ist, wenn eine Mitte der Grenze mit einer Mitte der Apertur (15) zentriert ist.

Description

  • HINTERGRUND
  • Laufzeitsysteme (TOF-Systeme) werden zur Berechnung einer Distanz eines Objekts auf der Basis einer Zeitdauer verwendet, die ein Lichtimpuls dazu benötigt, von einem Sender zum Objekt und dann vom Objekt zu einem Lichtdetektor zu laufen. Für verschiedene Anwendungen werden verschiedene Laufzeitsysteme verwendet.
  • Beim Golf, zum Beispiel, werden Laufzeitentfernungsmesser zur Berechnung einer Distanz zum Loch verwendet. Diese Entfernungsmesser sind in der Regel als lineare Systeme ausgelegt, die einen schmalen, geradlinigen Laserstrahl ausgeben. Wenn der Laserstrahl auf ein Objekt in dem geradlinigen Weg trifft, wird ein reflektierter Teil des auf das Objekt treffenden Laserstrahls an einem Detektor detektiert und die Distanz des Objekts berechnet. Derartige Entfernungsmesser können nur die Distanz des ersten Objekts in dem Laserstrahlweg messen; die Entfernungsmesser können weder zwischen unterschiedlichen Objekten mit unterschiedlichen Distanzen unterscheiden, noch können sie die Distanz von Objekten in mehr als einer Dimension identifizieren.
  • Zu fortgeschritteneren Laufzeiteinrichtungen zählen Bildsensoren, wie die in Digitalkameras, die ein Array aus vielen Lichtdetektionsvertiefungen oder lichtempfindlichen Stellen enthalten. Die Bildsensoren können aufgrund der detektierten Position des von jedem Objekt reflektierten Lichts innerhalb des Arrays und der berechneten Laufzeit die Distanz und Position mehrerer Objekte in mindestens zwei Dimensionen messen. Bildsensoren sind jedoch teuer und langsam.
  • Bildsensoren benötigen längere Verarbeitungszeiten zur Analyse der Daten an jeder der lichtempfindlichen Stellen in dem Array. Obgleich sich die Genauigkeit dieser Einrichtungen mit steigender Anzahl von lichtempfindlichen Stellen verbessert, steigen auch die Kosten und die Verarbeitungszeit, die zur Analyse der Daten an jeder lichtempfindlichen Stelle benötigt werden. Somit ist der Einsatz von Bildsensoren in billigen oder zeitkritischen Anwendungen, wie bei Fahrzeugaufprallvermeidungssystemen, unpraktisch.
  • US 2013 / 0 300 838 A1 betrifft ein 3D-Landschaftsbildgerät in Echtzeit. Sie bezieht sich auch auf Verfahren zum Betrieb eines solchen Bildgebers. Ein solcher Imager umfasst: -mindestens ein Beleuchtungselement, das dazu bestimmt ist, mindestens einen Teil der Landschaft in einem gegebenen Bereich abzutasten, und das eine ultrakurze Laserimpulsquelle, die mindestens eine Wellenlänge emittiert, und einen optischen Rotationsblock mit vertikaler Drehachse aufweist, der so gesteuert wird, dass gegebene Impulspakete in einem Muster rotierender Strahlen geformt werden, die in Richtung der genannten mindestens teilweisen Landschaft gesendet werden; mindestens ein Empfangsteil, das einen Satz von SPAD-Detektorarrays umfasst, die jeweils entlang einer vertikalen Richtung angeordnet sind und sich mit einer gegebenen Geschwindigkeit synchron mit dem optischen Drehblock des Beleuchtungsteils drehen, wobei die Erfassungsdaten der SPAD-Detektorarrays kombiniert werden, um 3D-Bilddaten der mindestens teilweisen Landschaft in einer zentralen Steuerung zu erfassen.
  • DE 101 53 742 A1 betrifft eine Vorrichtung zur Durchführung des Verfahrens mit: Ein Triggersignal startet einen lichtinduzierten Impuls auf einer Senderseite und öffnet Integrationsfenster auf einer Empfängerseite, um rückgestreute lichtinduzierte Impulse mit einer vorgegebenen Zeitverzögerung aufzunehmen. Ein vorbestimmtes Ereignis, wie ein Maximum oder ein Nulldurchgang, wird erfasst, wobei seine zeitliche Position relativ zu den Integrationsfenstern zur Bestimmung einer Auslöseverzögerung verwendet wird.
  • US 2012 / 0 098 935 A1 betrifft eine 3D-Laufzeitkamera zur Erfassung von Informationen über eine Szene, insbesondere zur Erfassung von Tiefenbildern einer Szene, Informationen über Phasenverschiebungen einer Szene oder Umgebungsinformationen über die Szene. Die Kamera kompensiert insbesondere Bewegungsartefakte durch Echtzeit-Identifikation betroffener Pixel und korrigiert ihre Daten vorzugsweise vor der eigentlichen Berechnung der gewünschten szenenbezogenen Informationswerte aus den Rohdatenwerten, die aus der von der Szene reflektierten Strahlung gewonnen werden.
  • US 2013 / 0 037 700 A1 betrifft einen optischen Sensor mit: erstem und zweitem Lichtempfangselement auf einem Halbleitersubstrat; einen lichtblockierenden Film über dem Halbleitersubstrat über einem lichtdurchlässigen Film; und erste und zweite Öffnungen, die den Lichtempfangselementen entsprechen und in dem lichtblockierenden Film angeordnet sind. Erste und zweite virtuelle Linien sind so definiert, dass sie sich von den Zentren der ersten und zweiten Lichtempfangselemente aus erstrecken und durch die Zentren der ersten bzw. zweiten Öffnungen verlaufen. Mindestens einer der Elevationswinkel und Links-Rechts-Winkel der ersten und zweiten virtuellen Linien ist unterschiedlich. Die lichtempfindliche Fläche des ersten Lichtempfangselements ist größer als die Aperturfläche der ersten Öffnung. Die lichtempfindliche Fläche des zweiten Lichtempfangselements ist größer als die Aperturfläche der zweiten Öffnung.
  • EP 2 469 295 A1 betrifft 3D-Landschaftsbildgerät in Echtzeit. Sie bezieht sich auch auf Verfahren zum Betrieb eines solchen Bildgebers. Ein solcher Bildgeber umfasst:
    • - mindestens ein Beleuchtungselement, das dazu bestimmt ist, mindestens einen Teil der Landschaft in einem gegebenen Bereich abzutasten, und das eine ultrakurze Laserimpulsquelle, die mindestens eine Wellenlänge emittiert, und einen optischen Drehblock mit vertikaler Drehachse aufweist, der so gesteuert wird, dass gegebene Impulspakete in einem Muster rotierender Strahlen geformt werden, die in Richtung der mindestens teilweisen Landschaft gesendet werden;
    • - mindestens ein Empfangsteil, das einen Satz von SPAD-Detektorarrays umfasst, die jeweils entlang einer vertikalen Richtung angeordnet sind und sich mit einer gegebenen Geschwindigkeit synchron mit dem optischen Drehblock des Beleuchtungsteils drehen, wobei die Erfassungsdaten der SPAD-Detektorarrays kombiniert werden, um 3D-Bilddaten der mindestens teilweisen Landschaft in einer zentralen Steuerung zu erfassen.
  • GB 2 464 172 A betrifft ein handgehaltenes Vermessungsgerät für die Vermessung von Gebäuden. Die Einheit umfasst ein elektronisches Verarbeitungsmittel, einen Bildschirm, ein Benutzereingabemittel, Software zur Erstellung eines Gebäudeplans, ein Datenerfassungsmittel, das eine Entfernungsmessvorrichtung zur Messung der Entfernung der Vorrichtung zu einem entfernten Objekt umfasst, und einen Eingabe-Ausgabe-Anschluss. Die Einheit ist so konfiguriert, dass sie einem Benutzer Aufforderungen zur Erstellung eines Plans eines zu vermessenden Gebäudes gibt. Dazu gehören Aufforderungen zur Erfassung von Daten aus dem Datenerfassungsmittel an Punkten, die auf dem Plan des Gebäudes gekennzeichnet sind. Das Entfernungsmessgerät kann ein Laser-Entfernungsmessgerät umfassen. Die Einheit kann ferner eine Kamera umfassen, wobei ein Detektor der Entfernungsmessvorrichtung und die Kamera einen gemeinsamen optischen Sensor haben können. Die Entfernungsmessvorrichtung kann ein Flugzeit- und/oder ein Triangulationsverfahren zur Entfernungsmessung verwenden. Die Einheit kann ferner ein Prisma zur Aufteilung des von der Entfernungsmessvorrichtung ausgesandten Laserlichts in mehrere Strahlen umfassen. Das Gerät eignet sich besonders für die Gewinnung von Daten, die für die Vermessung und Vermarktung einer Immobilie erforderlich sind, und kann für die Bereitstellung von Informationen verwendet werden, die für eine Hausinformation erforderlich sind.
  • US 2012 / 0 105 823 A1 betrifft ein System zur Kalibrierung eines Farberkennungspixels auf der Grundlage des Abstands zwischen dem Farberkennungspixel und einem Objekt. Der Abstand wird durch Messung der Phasenverschiebung der elektromagnetischen Strahlung, wie sie von der Oberfläche des Objekts reflektiert wird, im Vergleich zum Wellenprofil der auf die Objektoberfläche einfallenden elektromagnetischen Strahlung bestimmt. Dem Farberkennungspixel ist ein Time-of-Flight (ToF)-Pixel zugeordnet, das zur Bestimmung des Abstands des Farberkennungspixels verwendet wird. Die elektromagnetische Strahlung kann aus jedem Teil des elektromagnetischen Spektrums stammen, insbesondere aus dem Infrarotbereich und dem sichtbaren Licht des elektromagnetischen Spektrums. Das Farberkennungspixel und das ToF-Pixel können sich auf demselben Halbleiter oder auf unterschiedlichen Halbleitern befinden.
  • US 2006 / 0 221 250 A1 betrifft ein Abbildungssystem erfassend im Wesentlichen gleichzeitig Z-Tiefen- und Helligkeitsdaten von ersten Sensoren und erfasst RGB-Daten mit höherer Auflösung von zweiten Sensoren und verschmilzt die Daten von den ersten und zweiten Sensoren, um ein RGBZ-Bild zu modellieren, dessen Auflösung so hoch sein kann wie die Auflösung der zweiten Sensoren. Die Zeitkorrelation der erfassten Daten von den ersten und zweiten Sensoren wird mit den erfassten Bilddaten verknüpft, was eine beliebige Zuordnung zwischen den beiden Datenquellen ermöglicht, die von 1:viele bis viele:1 reicht. Vorzugsweise werden Pixel von jedem Satz von Sensoren, die denselben Zielpunkt abbilden, zugeordnet. Zur Erstellung eines statischen Umgebungsmodells können viele z-Tiefen-Sensoreinstellungen verwendet werden. Es wird eine nichtkorrelative und korrelative Filterung durchgeführt, und es erfolgt ein Upsampling zur Erhöhung der z-Auflösung, woraus ein dreidimensionales Modell unter Verwendung von Registrierungs- und Kalibrierungsdaten erstellt wird.
  • DE 198 21 974 A1 betrifft eine Vorrichtung zum Erfassen von Phase und Amplitude elektromagnetischer Wellen, und zwar vorzugsweise im optischen sowie im nahen Infrarot- und Ultraviolett-Bereich, mit mindestens zwei für die elektromagnetischen Wellen empfindlichen (bzw. lichtempfindlichen) Modulationsphotogates und mit diesen zugeordneten, nicht lichtempfindlichen bzw. abgeschatteten Akkumulationsgates, sowie mit elektrischen Anschlüssen für die Modulationsphotogates und die Akkumulationsgates, so daß letztere mit einer Ausleseeinrichtung und erstere mit einer Modulationseinrichtung verbindbar sind, wobei die Modulationseinrichtung das Potential der Modulationsphotogates relativ zueinander und auch relativ zu dem, vorzugsweise konstanten, Potential der Akkumulationsgates entsprechend einer gewünschten Modulationsfunktion anhebt oder absenkt.
  • Es besteht somit ein Bedarf an einer kostengünstigen, schnellen und genauen Berechnung einer Position von mehreren Objekten in mindestens zwei Dimensionen.
  • Diese Aufgabe wird durch unabhängigen Patentansprüche gelöst. Vorteilhafte Ausführungsformen ergeben sich aus den Unteransprüchen und Figuren.
  • Figurenliste
    • 1 zeigt ein beispielhaftes Laufzeitsystem und Kurvendiagramme von Lichtsensorströmen.
    • 2 zeigt einen ersten beispielhaften optischen Detektor in einem beispielhaften Laufzeitsystem.
    • 3 zeigt einen zweiten beispielhaften optischen Detektor in einem beispielhaften Laufzeitsystem.
    • 4 zeigt eine beispielhafte Perspektive in Seitenansicht eines dritten beispielhaften optischen Detektors in einem beispielhaften Laufzeitsystem.
    • 5 zeigt eine beispielhafte Perspektive in Draufsicht des dritten beispielhaften optischen Detektors, der in 4 gezeigt ist.
    • 6 zeigt beispielhafte Verfahren.
  • AUSFÜHRLICHE BESCHREIBUNG
  • In verschiedenen Ausführungsformen kann Laufzeittechnologie mit optischer Detektionstechnologie, die einen Winkel von detektiertem Licht auf der Basis eines Anteils des an jedem von mindestens zwei Lichtsensoren detektierten Lichts identifiziert, kombiniert werden. Die optische Detektionstechnologie kann einen Lichtdetektor mit zwei oder mehr Lichtsensoren enthalten. Der Lichtdetektor kann eine äußere Fläche oder eine Peripherie mit einer Apertur aufweisen. Jeder der Lichtsensoren kann mit unterschiedlichen Orientierungen in dem Lichtdetektor mit Bezug auf die Apertur angeordnet sein, so dass jeder Sensor eine unterschiedliche Teilmenge des durch die Apertur tretenden Lichts detektieren kann. Die Teilmenge des an jedem Lichtsensor detektierten Lichts kann sich mit Änderung des Winkels des durch die Apertur tretenden Lichts ändern. Der effektive Winkel des durch die Apertur tretenden Lichts kann daraufhin aus dem Anteil des an jedem der mit der Apertur assoziierten Sensoren detektierten Lichts berechnet werden.
  • Die Laufzeittechnologie kann einen Sender, der zu einer vorbestimmten Zeit einen Lichtpuls emittiert, den oben erwähnten Lichtdetektor und eine Berechnungseinheit enthalten. Der Lichtdetektor kann dazu konfiguriert sein, den abgegebenen Lichtpuls zu detektieren. In einigen Fällen kann der Sender und/oder Lichtdetektor zur Verbesserung der Detektionsgenauigkeit am Lichtdetektor moduliert sein. Die Berechnungseinheit kann eine Laufzeit des emittierten Lichtspulses auf der Basis einer Zeitdifferenz zwischen einer Zeit, zu der der Lichtpuls emittiert wird, und einer Zeit, zu der der Lichtpuls an dem Lichtdetektor detektiert wird, berechnen. Diese Zeitdifferenz kann die Zeit darstellen, die benötigt wird, damit der Lichtpuls zuerst von dem Sender zu einem Objekt im Weg des Lichtpulses und dann, nachdem der Lichtpuls auf das Objekt trifft und von dem Objekt reflektiert wird, von dem Objekt zu dem Lichtdetektor laufen kann. Die Distanz, die der Lichtpuls abgelaufen hat, kann durch Multiplizieren der berechneten Laufzeit mit der Lichtgeschwindigkeit berechnet werden.
  • Die mittels der Laufzeittechnologie berechnete Distanz, die der Lichtpuls abgelaufen hat, kann mit dem effektiven Winkel des durch die Apertur tretenden Lichts, der mittels der Lichtdetektionstechnologie berechnet wird, kombiniert werden, um eine Position des Objekts relativ zum Detektor in zwei Dimensionen mit einer Mindestanzahl von zwei Lichtsensoren in dem optischen Detektor bereitzustellen. Die Position des Objekts relativ zum Detektor kann mit einer Mindestanzahl von drei Lichtsensoren in dem optischen Detektor auch in drei Dimensionen berechnet werden.
  • Es können auch mehrere Objekte im Weg des Lichtpulses identifiziert und ihre jeweiligen Positionen berechnet werden. In Fällen, wo sich mehrere Objekte an unterschiedlichen Distanzen vom Sender und Lichtdetektor befinden, kann die Zeit, die benötigt wird, damit der Lichtpuls vom Sender zum Objekt und dann zum Detektor laufen kann, variieren. Somit kann der Lichtdetektor zuerst den empfangenen Lichtpuls detektieren, nachdem er von einem ersten Objekt, das sich dem Sender und dem Detektor am nächsten befindet, reflektiert wird. Daraufhin kann der Lichtdetektor den Lichtpuls eine kurze Zeit, nachdem er von einem zweiten Objekt reflektiert wird, das sich weiter weg als das erste Objekt befindet, erneut detektieren. Der Anteil des reflektierten Lichts, welches jeden der Lichtsensoren erreicht, kann jedesmal dann, wenn der Lichtpuls detektiert wird, aufgrund der unterschiedlichen Positionen der Objekte relativ zueinander und dann dem Detektor variieren.
  • Wie vorliegend erörtert, können Objektpositionsinformationen eines oder mehrerer Objekte in zwei oder drei Dimensionen durch Kombination der Ausgabe von einer jeweiligen Mindestanzahl von zwei oder drei Lichtsensoren in einem Lichtdetektor mit den Informationen über die berechnete Laufzeit bestimmt werden. Durch Verwendung von wesentlich weniger Lichtsensoren als ein herkömmlicher Digitalkamerabildsensor können Positionsinformationen eines oder mehrerer Objekte schnell und genau in mindestens zwei Dimensionen zu wesentlich niedrigeren Kosten berechnet werden.
  • 1 zeigt ein beispielhaftes Laufzeitsystem 10 und Kurvendiagramme 17 von Strömen iL und iR von einem jeweiligen linken Sensor 13 und einem rechten Sensor 14. Ein beispielhaftes Laufzeitsystem 10 kann einen Sender 11, einen Lichtdetektor 12 und eine Berechnungseinheit 17, die mit dem Sender 11 und dem Lichtdetektor 12 gekoppelt ist, enthalten.
  • Der Sender 11 kann einen Lichtpuls emittieren. Der Lichtpuls kann über einen Bereich 16 emittiert werden. Der Bereich 16 kann ein vorbestimmtes Raumvolumen, das sich von dem Sender 111 erstreckt, enthalten. Das emittierte Licht kann ein beliebiges Objekt innerhalb des Bereichs 16 erreichen. Das in 1 gezeigte Beispiel enthält zwei Objekte 1 und 2 mit dem Bereich 16 des Senders 11. Das Objekt 1 befindet sich eine Distanz d1T von dem Sender 11 und eine Distanz d1R von einer Mitte einer Apertur 15 in dem Detektor 12. Das Objekt 2 befindet sich eine Distanz d2T von dem Sender 11 und eine Distanz d2R von der Mitte der Apertur 15.
  • Von dem Sender 11 emittiertes Licht muss möglicherweise Distanzen d1T und d2T ablaufen, um die jeweiligen Objekte 1 und 2 zu erreichen. Sobald das emittierte Licht diese Objekte 1 und 2 erreicht, kann ein Teil des Lichts an den jeweiligen Objekten 1 und 2 reflektiert werden und daraufhin die jeweiligen Distanzen d1R und d2R ablaufen, um den Detektor 12 zu erreichen. Der Teil des am Objekt 1 reflektierten Lichtpulses, der den Detektor 12 erreicht, kann einen Winkel von θ1 mit Bezug auf den Detektor 12 aufweisen. Der Teil des am Objekt 2 reflektierten Lichtpulses, der den Detektor erreicht, kann einen Winkel von θ2 mit Bezug auf den Detektor 12 aufweisen.
  • Der Detektor 12 in 1 enthält zwei Lichtsensoren, einen linken Sensor 13 und einen rechten Sensor 14 innerhalb eines Gehäuses mit einer Apertur 15. Die Lichtsensoren 13 und 14 können in einigen Fällen Photodetektoren oder Elektroden enthalten, die mit einer Epitaxialschicht auf einem Substrat verbunden sind. Jeder der Lichtsensoren 13 und 14 kann einen jeweiligen Strom erzeugen, der mit einer Menge an Licht an den jeweiligen Sensoren 13 und 14 proportional ist.
  • Die Sensoren 13 und 14 können mit einer Berechnungseinheit 17 gekoppelt sein. Der Sender 11 kann auch mit der Berechnungseinheit 17 gekoppelt sein. Die Berechnungseinheit 17 kann eine zentrale Verarbeitungseinheit, einen Mikrocontroller oder eine andere Verarbeitungseinheit, die mathematische Operationen durchführen kann, enthalten. Die Berechnungseinheit 17 kann dazu konfiguriert sein, eine Laufzeit des Lichtpulses auf der Basis der Zeitdifferenz zwischen einer Startzeit der Emission des Lichtpulses am Sender 11 und einer Detektionszeit des Lichtpulses am Detektor 12 zu berechnen.
  • Die berechnete Laufzeit t1 und t2 des Lichtpulses mit Bezug auf jedes Objekt 1 und 2 kann daraufhin mit der Lichtgeschwindigkeit multipliziert werden, um die von dem Licht abgelaufene Gesamtdistanz zu bestimmen. Diese Distanzinformationen können zur Bestimmung einer Position des Objekts in einer Dimension relativ zum Detektor verwendet werden. Die Gesamtdistanz mit Bezug auf das Objekt, die von dem Licht abgelaufen wird, kann wie folgt berechnet werden: d 1 T + d 1 R = c t 1
    Figure DE102014108310B4_0001
    d 2 T + d 2 R = c t 2
    Figure DE102014108310B4_0002
  • In derartigen Fällen, wo die Distanz zwischen dem Sender 11 und dem Detektor 12 wesentlich kleiner als die Distanz zwischen den Detektor 12 und dem jeweiligen Objekt 1 oder 2 ist, können die Distanzen d1T und d1R als einander gleich approximiert werden, und die Distanzen d2T und d2R können auch als einander gleich approximiert werden. Somit können die Gleichungen (1) und (2) auf Folgendes vereinfacht werden: d 1 R ( c t 1 ) / 2
    Figure DE102014108310B4_0003
    d 2 R ( c t 2 ) / 2
    Figure DE102014108310B4_0004
  • Die Berechnungseinheit 17 kann auch die Ströme iL und iR, die vom jeweiligen Sensor 13 und 14 ausgegeben werden, vergleichen, um einen Anteil des von jedem Sensor 13 und 14 ausgegebenen Gesamtstroms zu bestimmen. Der Anteil der von jedem Sensor ausgegebenen Ströme kann dann zur Bestimmung des Winkels des reflektierten Lichts mit Bezug auf den Detektor 12 verwendet werden. Zum Beispiel kann, wie in 1 gezeigt, das am Objekt 1 reflektierte Licht an der Apertur 15 des Detektors mit einem Winkel θ1 ankommen. Mit diesem Winkel θ1 wird der Großteil des reflektierten Lichts auf den linken Lichtsensor 13 statt den rechten Lichtsensor 14 gerichtet. Somit kann der linke Sensor 13 einen wesentlich höheren Strom als der rechte Sensor 14 ausgeben.
  • Das Licht, das am Objekt 2, das sich fast vertikal zur Apertur 15 befindet, reflektiert wird, kann jedoch mit einem fast vertikalen Winkel θ2 an der Apertur 15 ankommen. Somit kann das am Objekt 2 reflektierte Licht gleichmäßiger zwischen dem linken Sensor 13 und dem rechten Sensor 14 verteilt werden. Somit können sich die von dem linken Sensor 13 und dem rechten Sensor 14 erzeugten Ströme sehr ähnlich sein. Somit kann der Winkel des reflektierten Lichts auf der Basis des Verhältnisses von von jedem der Sensoren 13 und 14 detektierten Strömen berechnet werden. Diese Winkelinformationen können Informationen über die Position des Objekts in einer Dimension bereitstellen.
  • Die zwei Graphen 17 zeigen relative Veränderungen des Stroms iL am linken Sensor 13 (oberer Graph) und des Stroms iR am rechten Sensor 14 (unterer Graph) über Zeit. Der Puls kann von dem Sender 11 zur Zeit t0 emittiert werden. Ungefähr zur Zeit t1 kann der Teil des am Objekt 1 reflektierten Lichtpulses an den Sensoren 13 und 14 empfangen werden. Dies kann die jeweiligen steilen Stromanstiege zur Zeit t1, die in beiden Graphen gezeigt sind, verursachen. Aufgrund der Position des Objekts 1 relativ zur Apertur 15 kann ein größerer Anteil des reflektierten Lichts auf den linken Sensor 13 statt den rechten Sensor 14 projiziert werden. Da der an jedem Sensor 13 und 14 erzeugte Strom proportional zur Menge an Licht, die auf den Sensor projiziert wird, sein kann, kann der Strom iL, der am linken Sensor 13 erzeugt wird, im Wesentlichen mehr als der Strom iR am rechten Sensor 14 sein, wenn die Sensoren 13 mit gleichem Abstand von der Apertur 15 angeordnet sind und die Apertur 15 symmetrisch ist.
  • Ungefähr zur Zeit t2 kann der Teil des am Objekt 2 reflektierten Lichtpulses an den Sensoren 13 und 14 empfangen werden. Dies kann die jeweiligen steilen Stromanstiege zur Zeit t2, die in beiden Graphen gezeigt sind, verursachen. Aufgrund der fast vertikalen Position des Objekts 2 über der Apertur 15 kann ein ungefähr gleicher Anteil des reflektierten Lichts auf jeden der Sensoren 13 und 14 projiziert werden, wenn die Sensoren 13 mit gleichem Abstand von der Apertur 15 angeordnet sind und die Apertur 15 symmetrisch ist. Da der an jedem Sensor 13 und 14 erzeugte Strom proportional zur Menge an Licht, die auf den Sensor projiziert wird, sein kann, kann der Strom iL, der am linken Sensor 13 erzeugt wird, dem Strom iR am rechten Sensor 14 relativ ähnlich sein.
  • Die Winkel θ1 und θ2, die von der Berechnungseinrichtung 17 berechnet werden, können Folgendem ähnlich sein: θ 1 i L t 1 / i R t 1
    Figure DE102014108310B4_0005
    θ 2 i L t 2 / i R t 2
    Figure DE102014108310B4_0006
  • In einigen Fällen kann der Detektor 12 zwei oder mehr Lichtsensoren aufweisen. Jeder der Lichtsensoren kann einen unterschiedlichen Teil des von dem Sender 11 emittierten und an einem Objekt reflektierten Lichtpulses detektieren. Eine Berechnungseinheit 17 kann mit dem Sender 11 und dem Detektor 12 gekoppelt sein. Die Berechnungseinheit 17 kann eine Laufzeit des Lichtpulses und eine Position des Objekts relativ zum Detektor 12 auf der Basis der berechneten Laufzeit und eines berechneten Anteils der Teile des reflektierten Lichtpulses, der an den Lichtsensoren detektiert wird, berechnen.
  • Falls es in einem Bereich 16 des emittierten Lichtpulses mehrere Objekte gibt, kann jeder der Lichtsensoren einen unterschiedlichen Teil des an jedem der mehreren Objekte reflektierten Lichtpulses detektieren. Die Berechnungseinheit 17 kann eine Laufzeit des Lichtpulses mit Bezug auf jedes der Objekte auf der Basis von Spitzenströmen, die an jeder Lichtquelle erzeugt werden, berechnen. Die Berechnungseinheit 17 kann auch die jeweiligen Spitzenströme unterschiedlicher Lichtquellen miteinander und der berechneten Laufzeit für das jeweilige Objekt vergleichen, um die Position des jeweiligen Objekts zu berechnen.
  • Wenn der Detektor 12 zwei Lichtsensoren enthält, kann die Berechnungseinheit 17 die Objektposition in zwei Dimensionen berechnen. Eine erste der zwei Dimensionen kann aus dem berechneten Anteil der Teile des reflektierten, an den Lichtsensoren detektierten Lichtpulses erhalten werden. Eine zweite der zwei Dimensionen kann aus der berechneten Laufzeit erhalten werden.
  • 2 zeigt einen beispielhaften optischen Detektor 100. Der optische Detektor 100 kann eine Peripherie 110, wie eine Außenoberfläche oder ein Gehäuse, enthalten. In beiden Fällen, wo der optische Detektor 110 aus einem Halbleiter gebildet ist, kann die Peripherie 110 eine äußere Fläche des Halbleiters sein. In den Fällen, wo der optische Detektor 110 als eine integrierte Schaltung ausgebildet ist, kann die Peripherie 110 eine Außenfläche der integrierten Schaltung sein. Die Peripherie 110 kann metallisch sein oder aus einer anderen Substanz, die lichtundurchlässig ist, bestehen.
  • Die Peripherie 110 kann eine Apertur 111 aufweisen, die reflektiertes Licht 120 von dem Lichtpuls, das von dem Sender emittiert und an einem Objekt reflektiert wird, durch die Apertur 111 hindurch lässt. Die Apertur 111 kann eine beliebige Art von Öffnung in der Peripherie 110 oder ein Abschnitt der Peripherie 110 sein, die bzw. der transparent ist. In einigen Fällen kann es sich bei der Apertur 111 um eine physische Öffnung oder ein Loch in der Peripherie 110 handeln. In anderen Fällen kann die Apertur 111 ein Abschnitt der Peripherie 110 sein, der derart geändert wurde, dass er transparent oder lichtdurchlässig gemacht wurde, ohne notwendigerweise eine physische Öffnung oder ein Loch zu schaffen. Eine solche Veränderung kann in einigen Fällen durch Entfernung einer lichtundurchlässigen, einen Abschnitt der Peripherie 110 bedeckenden Beschichtung, um ihn transparent zu machen, durch Ersetzen eines Abschnitts der Peripherie 110 mit einem transparenten Material oder durch andere Techniken stattfinden. Die Apertur 111 kann ein Schlitz oder ein Loch sein oder eine beliebige andere Gestalt oder Form aufweisen.
  • Eine oder mehrere Kanten der Apertur 111 können angeschrägt sein. In einigen Fällen kann jede Kante der Apertur, die von der Epitaxialschicht 135 weggerichtet ist, angeschrägt sein, um eine Menge von einfallendem Licht, welches an der Kante reflektiert und auf die Epitaxialschicht 135 umgelenkt wird, zu reduzieren.
  • Ein Innenraum des optischen Detektors 100 kann ein Substrat 130 mit einer Epitaxialschicht 135 enthalten. Die Epitaxialschicht 135 kann auf einer Oberfläche des Substrats 130, die in Richtung der Apertur 110 gerichtet ist, aufgetragen sein. Die Epitaxialschicht 135 kann in einigen Fällen eine Epitaxialschicht auf der Basis von Germanium, Silicium oder Germanium und Silicium sein. Bei anderen Ausführungsformen können andere Typen von Epitaxialschichten verwendet werden.
  • Zwei oder mehr Elektroden 137 können sich zumindest teilweise in oder auf der Epitaxialschicht 135 befinden, um mit der Epitaxialschicht in elektrischem Kontakt zu stehen. Dadurch, dass die Elektroden 137 mit der Epitaxialschicht 135 in Kontakt stehen, können die Elektroden 137 Elektron-Loch-Paare in der Epitaxialschicht 135 sammeln, die von der Absorption des reflektierten Lichts 120 in der Epitaxialschicht 135 erzeugt werden, um eine Menge des an der Epitaxialschicht 135 empfangenen Lichts zu detektieren. Die Tiefen, mit der die Elektroden 137 in der Epitaxialschicht 135 positioniert sind, können dazu ausgewählt sein, einer erwarteten Eindringtiefe einer Wellenlänge des zu detektierenden reflektierten Lichts 120 zu entsprechen, um die Sammlung von Elektron-Loch-Paaren durch die Elektrode in dieser Eindringtiefe zu maximieren.
  • Die Elektroden 137 können eine beliebige Gestalt aufweisen. Zum Beispiel können in einigen Fällen die Elektroden diskrete, punktförmige Elektroden sein. In anderen Fällen können die Elektroden zusammenhängende Elektroden mit einer Länge oder anderen Abmessung, die der der Apertur 111 entspricht, sein, wie zum Beispiel eine einer Schlitzlänge einer Schlitzapertur oder einer rechteckigen Gestalt entsprechende Länge oder eine rechteckige Gestalt, die einer rechteckig gestalteten Schlitzapertur entspricht.
  • Zwei oder mehr Elektroden 137 können sich an vorbestimmten Positionen relativ zur Apertur 111 befinden. Zum Beispiel können sich bei einigen Fällen, wie dem in 1 gezeigten, die Elektroden 137 mit gleichen Distanzen von einer Mitte der Apertur 111 befinden. In anderen Fällen können sich eine oder mehrere der Elektroden 137 mit unterschiedlichen Distanzen als andere Elektroden 137 von der Mitte der Apertur 111 befinden. Die Elektroden 137 können sich in einigen Fällen auch einander gegenüber relativ zur Mitte der Apertur 111 befinden, während in anderen Fällen die Elektroden 137 in unterschiedlichen Orientierungen positioniert sein können.
  • Die Epitaxialschicht 135 kann auch zusammenhängend sein und eine zusammenhängende Oberfläche 136 zwischen jeder der Elektroden aufweisen. Diese Kontinuität gewährleistet, dass der gesamte Abschnitt der Epitaxialschicht, der sich zwischen den Elektroden 137 befindet, zur Absorption von Licht und Erzeugung von Elektron-Loch-Paaren zur Verfügung steht. In der Vergangenheit verhinderte die Anwesenheit von Gräben und anderen Isolatoren, die die Epitaxialschicht 135 kompartmentalisierten, die maximale Absorption von die Epitaxialschicht 135 erreichendem einfallendem Licht und die Erzeugung von Elektron-Loch-Paaren, die von den Elektroden gesammelt werden.
  • Die Elektroden 137 können mit einer oder mehreren Stromerfassungseinrichtungen gekoppelt sein, die dazu in der Lage ist, an jeder Elektrode 137 eine relative Menge von angesammelten Elektron-Loch-Paaren zu identifizieren, die in der Epitaxialschicht 135 durch die Absorption des reflektierten Lichts 120 in der Epitaxialschicht 135 erzeugt wurden. Der in 1 gezeigte Graph 150-153 zeigt eine Wahrscheinlichkeitsverteilungsfunktion einer Wahrscheinlichkeit 151, dass an unterschiedlichen Positionen in der Epitaxialschicht 135 entlang der Achse 150 erzeugte Elektron-Loch-Paare von entweder der Elektrode 137 auf der linken Seite 152 von 1 (wie durch die durchgezogene Kurvenlinie angegeben) oder der Elektrode 137 auf der rechten Seite 153 von 1 (wie durch die gestrichelte Kurvenlinie angegeben) gesammelt werden. Auf der Basis dieser bekannten Wahrscheinlichkeitsverteilung können die gemessenen Ströme jeweils an der linken 152 und rechten 153 Elektrode 137 (iL und iR) verglichen werden, um einen erwarteten Schwerpunkt des reflektierten Lichts 120 zwischen den Elektroden 137 zu berechnen. Ein Winkel des reflektierten Lichts 120 kann daraufhin auf der Basis des erwarteten Schwerpunkts berechnet werden. Die Wahrscheinlichkeitsverteilungsfunktion kann experimentell bestimmt werden. Dieser Ansatz, die Wahrscheinlichkeitsverteilungsfunktion zur Berechnung des Winkels des reflektierten Lichts 120 zu verwenden, kann über nur geringe Trenndistanzen zwischen den Elektroden 137 eine Genauigkeit mit einer Größenordnung von einigen 10 Mikrometer statt mehrerer Millimeter, die zum Aufbau eines herkömmlichen Winkelmessphotodetektors benötigt werden, aufweisen. In Fällen, wo ein Photodetektor mit Millimetermaßstab benötigt wird, können mehrere optische Detektoren 100 zusammengekoppelt werden, um den Millimetermaßstab zu erreichen.
  • Ein Winkel des reflektierten Lichts 120, das durch die Apertur 111 tritt und die Epitaxialschicht 135 erreicht, kann aus dem an jedem der Elektroden 137 gemessenen Strom berechnet werden. Im Fall von zwei Elektroden 137, wie in 1 gezeigt ist, kann der Winkel θ des reflektierten Lichts 120 aus dem linken und rechten Strom iL und iR wie folgt berechnet werden: ƒ ( θ ) = i L i R i L + i R
    Figure DE102014108310B4_0007
  • Die zusammenhängende Natur der Epitaxialschicht 135 zwischen den Elektroden 137 kann einen Widerstand zwischen jeder der Elektroden 137, der gleich einem Wirkwiderstand Reff zwischen den Elektroden ist, verursachen. Die eigentliche Größe von Reff kann in Abhängigkeit von der Distanz zwischen den Elektroden, der Anzahl von Elektroden, dem Widerstand der Epitaxialschicht 135, der Dicke der Epitaxialschicht 135 und einer Vorspannung VS, die am Substrat angelegt wird, variieren. Eine Spannungsquelle, die die Vorspannung VS anlegt, kann mit dem Substrat gekoppelt sein und die Vorspannung an die Epitaxialschicht 135 anlegen, um eine Lichtdetektionsempfindlichkeit der Elektroden 137 zu ändern, indem die Menge an Licht, die in der Epitaxialschicht 135 zur Erzeugung eines Elektron-Loch-Paars absorbiert werden muss, geändert wird. Der optische Detektor 100 kann derart ausgelegt sein, dass er einen großen Reff aufweist, um Rauschen zwischen Schaltungen zu unterdrücken, die mit jeder der Elektroden verbunden sind, und um Johnson-Rauschen zu reduzieren. Reff kann durch Schaffen eines erheblichen Verarmungsbereichs in der Epitaxialschicht 135 um die Elektroden 137 herum groß gemacht werden. Dies kann mittels einer Hochwiderstandsepitaxialschicht 135, die ein wenig vom n-Typ ist, mit Elektroden vom p-Typ erreicht werden, um einen erheblichen Verarmungsbereich um die Elektroden herum zu gewährleisten. In anderen Fällen kann eine Epitaxialschicht 135 vom p-Typ mit Elektroden vom n-Typ verwendet werden.
  • In einigen Fällen kann die Apertur 111 und/oder die Peripherie 110 direkt auf der Epitaxialschicht 135 positioniert sein. In anderen Fällen kann die Epitaxialschicht 135 von der Apertur 111 und/oder der Peripherie 110 durch ein transparentes Medium 112 getrennt sein. Das transparente Medium 112 kann ein Feststoff, eine Flüssigkeit oder ein Gas sein, das bzw. die transparent ist und Substanzen wie zum Beispiel Luft, Polymere und Gas enthalten. In einigen Fällen, wo die Epitaxialschicht 135 von der Apertur 111 und/oder der Peripherie 110 getrennt ist, kann die Peripherie 110 und/oder die Apertur 111 in unterschiedlichen Höhen über der Epitaxialschicht 135 positioniert sein, darunter, aber nicht ausschließlich, in Höhen von weniger als 30 Mikrometer und/oder Höhen von weniger als 10 Mikrometer.
  • Der optische Detektor 100 muss keine Linse oder andere Einrichtung, die Licht fokussiert, enthalten. Somit brauchen die Apertur 111 und das Medium 112 das reflektierte Licht 120, welches durch sie hindurch tritt, nicht zu fokussieren. Durch Weglassen beliebiger Linsen oder anderer lichtfokussierender Einrichtungen ist es möglich, die Größe und die Herstellungskosten und Herstellungszeit des optischen Detektors 100 zu reduzieren. Die Lichtdetektionseffizienz des optischen Detektors 100 kann in einigen Fällen verbessert werden, indem eine oder mehrere Linsen zur Fokussierung von Licht auf oder unter die zusammenhängende Oberfläche 136 der Epitaxialschicht 135 verwendet werden. In einigen Fällen kann die Apertur mit einer Linse ersetzt werden.
  • 3 zeigt eine Ausführungsform eines optischen Detektors 400, der sowohl ein vertikales Array 181 als auch ein horizontales Array 182 von Schlitzaperturen 111 enthält und entsprechende Sätze von Elektroden 137. 3 zeigt sechs beispielhafte vertikale Schlitzaperturen in dem vertikalen Array 181 und sechs beispielhafte horizontale Schlitzaperturen in dem horizontalen Array 182. Jede der Schlitzaperturen 111 kann einen Satz aus einer oder mehreren Elektroden aufweisen, die parallel zur Schlitzapertur 111 entlang einer Längsrichtung der Schlitzapertur 111 auf beiden Seiten der Schlitzapertur 111 positioniert sind. Die Schlitzaperturen 111 können auch angeschrägte Kanten aufweisen, die von der Epitaxialschicht 135 weg weisen, um die Wahrscheinlichkeit, dass das reflektierte Licht 120 an der Kante reflektiert und auf die Epitaxialschicht 135 umgelenkt wird, auf ein Minimum zu reduzieren. Jede Elektrode 137 kann in der Epitaxialschicht 135 zur Detektion einer jeweiligen Menge des einfallenden Lichts, welches durch jede Apertur tritt, angeordnet sein.
  • Einige der Elektroden 137 können rechteckförmig sein und sich über zumindest eine ähnliche Distanz wie die jeweilige mit der Elektrode 137 assoziierte Schlitzapertur 111 erstrecken. Einige der Elektroden 137 können auch parallel zu ihrer assoziierten Schlitzapertur 111 positioniert sein, und in einigen Fällen können Paare dieser Elektroden 137 mit gleichen Distanzen von der und auf jeder Seite der assoziierten Schlitzapertur 111 positioniert sein, wie in 3 gezeigt ist. Jedes Paar dieser Elektroden 137 kann auch mit einer Mitte ihrer entsprechenden Schlitzapertur 111 zentriert sein. In anderen Fällen kann bzw. können eine bzw. mehrere Elektroden oder Elektrodenpaare von einer Mitte ihrer entsprechenden Schlitzapertur 111 versetzt sein.
  • In einigen Fällen können die Elektroden 137 mehrere Punktelektroden enthalten, wie zum Beispiel die in 3 parallel zu beiden Längsseiten der am weitesten links liegenden Apertur 111 gezeigten. Die Punktelektroden können entlang zwei oder mehr gedachter Linien, die parallel zur Schlitzapertur orientiert sind, positioniert sein. In dem in 3 gezeigten Beispiel können die zwei gedachten Linien vertikal entlang beider Seiten der am weitesten links liegenden Schlitzapertur 111 laufen. Entsprechende Punktelektroden, die entlang jeder gedachten Linie, die mit einer jeweiligen Apertur assoziiert ist, laufen, können elektronisch zusammengekoppelt sein.
  • Die vertikalen Schlitzaperturen 111 in dem vertikalen Array 181 können parallel zueinander und senkrecht zu den horizontalen Schlitzaperturen 111 in dem horizontalen Array 182 angeordnet sein. Unterschiedliche Elektroden 137, die mit unterschiedlichen Aperturen 111 assoziiert sind, können zusammengekoppelt werden, vorausgesetzt, dass die Orientierung der Elektrode 137 mit Bezug auf ihre entsprechende Apertur 111 ähnlich ist. Wie in 3 gezeigt, können zum Beispiel alle Elektroden, die sich auf der linken Seite unterschiedlicher Aperturen 111 befinden, elektrisch gekoppelt sein, um einen aggregierten linken Strom iL zu erzeugen und die Lichtdetektionseffizienz des optischen Detektors 400 zu erhöhen. Ähnlich können auch alle Elektroden auf der rechten Seite, oberen Seite und unteren Seite der Aperturen 111 zusammengekoppelt sein, um aggregierte Ströme rechts iR, oben iT und unten iB zu erzeugen und weiterhin die Lichtdetektionseffizienz zu erhöhen.
  • In einigen Fällen kann ein elektrischer Signalisolator 403 in die Epitaxialschicht 135 eingesetzt oder darin ausgebildet sein, um die Epitaxialschicht 135 in mehrere getrennte zusammenhängende Oberflächen 136 zu unterteilen. Der Isolator 403 kann eine oder mehrere Elektroden 137 umgeben, um die Fähigkeit der Elektroden 137 zu isolieren, nur die Elektron-Loch-Paare, die innerhalb des isolierten, die Elektrode 137 umgebenden Gebiets, erzeugt werden, zu sammeln. In einigen Fällen kann der Isolator 403 zur Kompartmentalisierung der Epitaxialschicht 135 um jeden mit jeder Apertur 111 assoziierten Satz Elektroden herum, so dass die Qualität des die Epitaxialschicht 135 erreichenden Lichts, das durch eine jeweilige Elektrode 137 detektierbar ist, auf nur das reflektierte Licht 120 isoliert ist, das tatsächlich durch die mit der Elektrode 137 assoziierte Apertur 111 hindurchtritt, verwendet werden. In dem in 3 gezeigten Beispiel ist der Isolator 403 ein Graben, der die Epitaxialschicht 135 in zwei zusammenhängende Abschnitte unterteilt, einen ersten Abschnitt, der die Elektroden 137 in dem vertikalen Array 181 umfasst, und einen zweiten Abschnitt, der die Elektroden 137 in dem horizontalen Array 182 umfasst.
  • Ein optischer Detektor, der dem in 3 gezeigten ähnlich ist, kann eine Peripherie 110 mit mehreren Schlitzaperturen 111 enthalten. Mindestens zwei der Schlitzaperturen 111 können orthogonal zueinander orientiert sein. Der optische Detektor kann außerdem ein Substrat 130 mit einer Epitaxialschicht 135, die durch jede der Schlitzaperturen 111 tretendes Licht 120 empfängt, enthalten. Der optische Detektor kann außerdem einen Satz Elektroden 137, der mit jeder Schlitzapertur 111 assoziiert ist, enthalten. Jede Elektrode 137 in jedem Satz kann in der Epitaxialschicht 135 angeordnet sein, um eine Menge des empfangenen, durch die jeweilige Schlitzapertur 111 hindurchtretenden reflektierten Lichts 120 zu detektieren. Die Epitaxialschicht 135 kann eine zusammenhängende Oberfläche 136 zumindest für jeden Satz von Elektroden 137 aufweisen, die die Elektroden 137 in jedem jeweiligen Satz von Elektroden 137 umfasst. In einigen Fällen kann die Epitaxialschicht 135 eine einzige zusammenhängende Oberfläche 136 aufweisen, die jede Elektrode 137 umfasst. Die Epitaxialschicht 135 kann in einigen Fällen auf Germanium basieren.
  • Der in 3 gezeigte optische Detektor 400 enthält mehr als drei Lichtsensoren. Die an jedem dieser Lichtsensoren in sowohl dem vertikalen Array 181 als auch dem horizontalen Array 182 erzeugten Ströme können von einer Berechnungseinrichtung zur Berechnung der Position eines Objekts in drei Dimensionen verwendet werden. Zwei der Dimensionen der Position des Objekts können aus dem berechneten Anteil der Teile des reflektierten Lichtpulses, die an den Lichtsensorelektroden 137 in sowohl dem vertikalen Array 181 als auch dem horizontalen Array 182 detektiert werden, erhalten werden. Die Positionsinformationen der dritten Dimension können aus der berechneten Laufzeit des Lichtpulses abgeleitet werden.
  • 4 zeigt eine beispielhafte Perspektive in Seitenansicht und 5 zeigt eine beispielhafte Perspektive in Draufsicht auf einen optischen Detektor 108 mit einer einzigen Apertur 102 und einem assoziierten Paar von Photodetektoren 1110 und 1120 bei einer Ausführungsform der Erfindung. Bei diesen Ausführungsformen kann der emittierte Lichtpuls, der an einem auf einer Seite einer Oberfläche 105 des optischen Detektors positionierten Objekt reflektiert wird, durch die Apertur 102 treten, um die Photodetektoren 1110 und 1120 zu erreichen. Bei verschiedenen Ausführungsformen können unterschiedliche Anzahlen von Aperturen und Photodetektoren verwendet werden.
  • Die Apertur 102 kann ein Schlitz mit einer Breite s sein und kann mit einer Höhe h über den Photodetektoren 1110 und 1120 positioniert sein. Bei einigen Konfigurationen kann h weniger als 30 µm betragen, und in einigen raumsparenden Konfigurationen kann h weniger als 10 µm oder sogar weniger als 1 µm betragen. Ein Medium, welches Licht durchlässt, kann zwischen der Apertur 102 und den Photodetektoren 1110 und 1120 angeordnet sein. In einigen Fällen kann es sich bei dem Medium um Glas handeln, darunter Formen von Glas, die während der Herstellung von Halbleiterbauelementen verwendet werden. Die Breite s des Photodetektors 1110 und 1120 kann von einer Winkelbereichsvoraussetzung und h abhängen.
  • Der Winkel des an einem Objekt reflektierten Lichts kann durch Messung eines relativen Anteils von Photoströmen, die an jedem der Photodetektoren detektiert werden, berechnet werden, vorausgesetzt, dass das reflektierte Licht mindestens zwei der Photodetektoren erreichen kann. Wenn das gesamte reflektierte Licht aus der Lichtquelle auf nur einen Detektor fällt, ist es möglicherweise nicht möglich, Veränderungen des Winkels des reflektierten Lichts zu messen. Der Hauptwinkel θmax, der gemessen werden kann, kann ungefähr bei tan(θmax) ~ ±s/h auftreten.
  • Falls das reflektierte Licht derartig winklig verteilt wird, dass das reflektierte Licht die Photodetektoren aus mehreren Winkeln mit der Intensität In(θ) erreicht, kann die durchschnittliche Winkelposition des emittierten Lichts berechnet werden. Angenommen, SL(θ) und Sr(θ) sind die jeweiligen Reaktionen des linken und rechten Photodetektors auf Licht unter einem Winkel θ, der an den Photodetektoren detektiert wird, dann können die von dem linken und rechten Photodetektor gemessenen Photoströme wie folgt berechnet werden: i L = θ In ( θ ) S L ( θ ) d θ  und i r θ In ( θ ) S r ( θ ) d θ .
    Figure DE102014108310B4_0008
  • Die aus beiden diesen Integralen berechneten Photoströme können jedoch Photoströmen äquivalent sein, die aus einer „virtuellen“ Punktlichtquelle an einem Schwerpunktwinkel der Verteilung erzeugt werden. Der Schwerpunktwinkel kann aus den gemessenen Photoströmen an dem linken und rechten Photodetektor berechnet werden und zur Berechnung des äquivalenten Schwerpunktwinkels der Lichtquelle verwendet werden.
  • Das Photodetektorpaar 1110 und 1120 kann eine kombinierte Gesamtbreite L aufweisen, deren Mitte mit einer Mitte jeder jeweiligen Apertur 102 ausgerichtet sein kann. Bei einigen Ausführungsformen kann eine Mitte eines Photodetektorpaars von der Mitte einer jeweiligen Apertur versetzt sein, und in einigen anderen Fällen kann der Betrag des Versatzes für unterschiedliche Photodetektorpaare variieren. Der optische Detektor 108 kann derart konfiguriert sein, dass die Ausgaben entsprechender Photodetektoren in jedem von mehreren Photodetektorpaaren zusammengekoppelt werden, um die Lichtsammlungseffizienz zu erhöhen. Zum Beispiel können die Photostromausgaben des am weitesten links liegenden Photodetektors 1110 in jedem von mehreren Photodetektorpaaren zusammengekoppelt werden, um einen Aggregatsstrom iL zu erzeugen, der mit einem aggregierten detektierten Betrag von Licht an jedem der am weitesten links liegenden Photodetektoren 1110 proportional ist. Ähnlich können die Photostromausgaben von jedem der am weitesten rechts liegenden Photodetektors 1120 in jedem von mehreren Photodetektorpaaren zusammengekoppelt werden, um einen Aggregatsstrom ir des am weitesten rechts liegenden Photodetektors 1120 zu erzeugen.
  • Die Oberfläche 105 des optischen Detektors kann in einigen Fällen metallisch sein, wie zum Beispiel eine Metallverbindungsschicht, die bei der Herstellung von integrierten Schaltungen aus Silizium verwendet werden. Die Kanten der Aperturen 102 können angeschrägt sein, wie in 4 gezeigt, und in einigen Fällen können die angeschrägten Kanten von den Detektoren wegweisen, wie ebenfalls in 4 gezeigt ist. Jeder der Photodetektoren 1110 und 1120 kann von den anderen durch einen Graben 103 elektrisch isoliert und getrennt sein.
  • Bei Änderung des Winkels und der Richtung des reflektierten Lichts von der linken Seite in 4 über der Oberfläche 105 zu der rechten Seite über der Oberfläche 105 (oder andersherum) kann sich auch die Projektion des reflektierten Lichts durch die Apertur 102 von anfänglich gänzlich auf den rechts liegenden Detektor 1120 zu einer geringeren Projektion auf den rechts liegenden Detektor 1120 und einer höheren Projektion auf den links liegenden Detektor 1110 ändern, bis das reflektierte Licht gänzlich auf den links liegenden Detektor 1110 projiziert wird.
  • Der Winkel des reflektierten Lichts kann durch Vergleich der Photoströme iL und ir berechnet werden, die mit dem detektierten Licht an den linken bzw. rechten Photodioden proportional sein können, nachdem das einfallende Licht durch die Apertur 102 tritt. Die Fähigkeit, den Winkel des reflektierten Lichts berechnen zu können, kann von der Fähigkeit, reflektiertes Licht an jedem Photodetektor 1110 und 1120 detektieren zu können, abhängen, da die Winkelberechnung von dem Anteil des jeden der Photodetektoren 1110 und 1120 erreichenden Lichts abhängt.
  • 6 zeigt beispielhafte Verfahren. Im Kasten 601 kann ein Lichtpuls emittiert werden. Der Lichtpuls kann von einem Sender zu einer vorbestimmten Emissionszeit emittiert werden. Der Sender kann mit einer Berechnungseinrichtung gekoppelt sein, die zur Berechnung einer Laufzeit des Lichtpulses, beginnend von der vorbestimmten Emissionszeit bis zur folgenden Detektion eines reflektierten Teils des Lichtpulses an einem Detektor, konfiguriert ist.
  • Im Kasten 602 können unterschiedliche Teile des Lichtpulses an jedem von mehreren Lichtsensoren in dem Detektor detektiert werden, nachdem der Lichtpuls an einem Objekt reflektiert wird und durch eine Apertur durchtritt.
  • Im Kasten 603 kann eine Laufzeit des Lichtpulses auf der Basis einer abgelaufenen Laufzeit des Lichtpulses beginnend von der Zeit, zu der der Lichtpuls von dem Sender emittiert wird, bis der reflektierte Teil des Lichtpulses an dem Detektor detektiert wird, berechnet werden.
  • Im Kasten 604 können Intensitäten von mindestens zwei der unterschiedlichen Teile des reflektierten Lichtpulses, die an zwei oder mehr der Lichtsensoren in dem Detektor detektiert werden, miteinander verglichen werden. In einigen Fällen kann dieser Vergleich eine Berechnung eines Verhältnisses oder Anteils des an jedem der jeweiligen mindestens zwei Lichtsensoren detektierten Gesamtlichts enthalten.
  • Im Kasten 605 kann eine Position des Objekts auf der Basis der berechneten Laufzeit im Kasten 603 und des Intensitätsvergleichs im Kasten 604 berechnet werden.
  • Im Kasten 606 kann ein Winkel des reflektierten Lichtpulses relativ zu den Lichtsensoren und/oder dem Detektor aus dem Intensitätsvergleich im Kasten 604 berechnet werden.
  • Im Kasten 607 kann eine zweidimensionale Position des Objekts relativ zu den Lichtsensoren und/oder dem Detektor berechnet werden. Eine erste Dimension der zweidimensionalen Position des Objekts kann auf der Basis des im Kasten 606 berechneten Winkels berechnet werden. Eine zweite Dimension der zweidimensionalen Position des Objekts kann auf der Basis der im Kasten 603 berechneten Laufzeit berechnet werden.
  • In einigen Fällen kann ein Lichtdetektor drei oder mehr Lichtsensoren enthalten, von denen mindestens zwei nicht parallel zueinander orientiert sind. Die nichtparallele Orientierung dieser Lichtsensoren kann zur Bestimmung von mindestens zwei unterschiedlichen Winkeln des reflektierten Lichts mit Bezug auf den Detektor verwendet werden. Zwei unterschiedliche Winkel können zur Berechnung einer Position des Objekts in zwei Dimensionen verwendet werden. Im Kasten 608 können die Intensitäten unterschiedlicher Teile des an jedem eines ersten Paars von Lichtsensoren detektierten Lichtpulses miteinander verglichen werden, und es können auch die Intensitäten von unterschiedlichen Teilen des an jedem eines zweiten Paars von Lichtsensoren detektierten Lichtpulses miteinander verglichen werden. Das zweite Paar von Lichtsensoren kann nichtparallel zum ersten Paar von Lichtsensoren in dem Detektor orientiert sein.
  • Im Kasten 609 kann ein erster Winkel des reflektierten Lichtpulses mit Bezug auf das erste Paar von Lichtsensoren aus dem Intensitätsvergleich am ersten Lichtsensorpaar berechnet werden, und ein zweiter Winkel des reflektierten Lichtpulses mit Bezug auf das zweite Paar von Lichtsensoren kann aus dem Intensitätsvergleich am zweiten Paar berechnet werden.
  • Im Kasten 610 kann eine dreidimensionale Position des Objekts relativ zum Detektor und/oder den Lichtsensoren berechnet werden. Die erste und zweite Dimension der dreidimensionalen Position kann auf der Basis des ersten und zweiten Winkels des im Kasten 609 berechneten reflektierten Lichtpulses berechnet werden. Die dritte Dimension der dreidimensionalen Position kann auf der Basis der im Kasten 603 berechneten Laufzeit berechnet werden.
  • Im Kasten 611 müssen mindestens die Teile des an einem Objekt reflektierten Lichtpulses nicht fokussiert werden, bevor die Funktionen in den Kästen 602 bis 610 durchgeführt werden.
  • In einigen Fällen kann der Detektor dazu konfiguriert sein, die Intensitäten unterschiedlicher Teile des durch eine Apertur tretenden reflektierten Lichtpulses in einer Peripherie des Detektors zu detektieren. Die Intensitäten unterschiedlicher Teile des reflektierten Lichtpulses können an jeder von mehreren Elektroden in einer Epitaxialschicht auf einem Substrat innerhalb des Detektors detektiert werden. Die Epitaxialschicht kann eine zusammenhängende Oberfläche aufweisen, die jede der Elektroden umfasst. Die Oberfläche des Substrats, die die Epitaxialschicht enthält, kann zur Apertur in der Peripherie des Detektors weisen, so dass das durch die Apertur tretende reflektierte Licht die Epitaxialschicht erreicht und von ihr absorbiert wird. Die detektierten Intensitäten des Lichtpulses an zwei oder mehreren der Elektroden können miteinander verglichen werden, und die Position des Objekts kann auf der Basis der berechneten Laufzeit und der verglichenen Intensitäten berechnet werden.
  • In anderen Fällen kann der Detektor dazu konfiguriert sein, die Intensitäten von unterschiedlichen Teilen des Lichtpulses an jedem von mehreren Photodetektoren zu detektieren, nachdem der reflektierten Lichtpuls durch eine Apertur in dem Detektor tritt. Die detektierten Intensitäten des Lichtpulses an zwei oder mehreren der Photodetektoren können daraufhin miteinander verglichen werden, und die Position des Objekts relativ zum Detektor kann auf der Basis der berechneten Laufzeit und der verglichenen Intensitäten berechnet werden.
  • Die obige Beschreibung wurde zu Zwecken der Darstellung und Beschreibung dargestellt. Sie ist nicht erschöpfend und schränkt Ausführungsformen der Erfindung nicht auf die genauen offenbarten Formen ein. Modifikationen und Variationen sind im Hinblick auf die obigen Lehren möglich oder können aus den praktischen Ausführungsformen in Reihe mit der Erfindung erfasst werden. Zum Beispiel betreffen einige der beschriebenen Ausführungsformen und Figuren bestimmte Zahlen, Ausrichtungen und Positionen von Aperturen, Lichtsensoren, Photodetektoren und Elektroden, aber in anderen Ausführungsformen können andere Zahlen, Ausrichtungen und Positionen dieser Bestandteile verwendet werden.

Claims (18)

  1. Laufzeitsystem (10), das Folgendes umfasst: einen Sender (11), der einen Lichtpuls emittiert; einen Detektor (12) mit mehreren Lichtsensoren (13, 14), die jeweils einen unterschiedlichen Teil des Lichtpulses, der durch eine Apertur (15) in den Detektor (12) tritt, detektieren, nachdem er von dem Sender emittiert und an einem Objekt (1, 2) reflektiert wird, wobei die Apertur als eine Öffnung oder als ein transparenter oder lichtdurchlässiger Abschnitt ausgebildet ist; eine Berechnungseinrichtung (17), die mit dem Sender (11) und dem Detektor (12) gekoppelt ist, zum Berechnen einer Laufzeit des Lichtpulses und einer Position des Objekts (1, 2) relativ zum Detektor (12) auf der Basis der berechneten Laufzeit und eines berechneten Anteils der Teile des an den Lichtsensoren (13, 14) detektierten reflektierten Lichtpulses; und wobei der Detektor (12) eine Oberfläche mit der Apertur (15) enthält und die Lichtsensoren (13, 14) ein Paar von Photodetektoren enthalten die voneinander an einer dazwischenliegenden Grenze isoliert sind, wobei die Grenze mit der Apertur (15) ausgerichtet ist, wenn eine Mitte der Grenze mit einer Mitte der Apertur (15) zentriert ist.
  2. System nach Anspruch 1, wobei der Detektor (12) zwei Lichtsensoren (13, 14) enthält und die Berechnungseinrichtung (17) die Objektposition in zwei Dimensionen berechnet, eine erste der zwei Dimensionen aus dem berechneten Anteil erhalten wird und eine zweite der zwei Dimensionen aus der berechneten Laufzeit erhalten wird.
  3. System nach Anspruch 1 oder 2, wobei der Detektor (12) mindestens drei Lichtsensoren (13, 14) enthält und die Berechnungseinrichtung (17) die Objektposition in drei Dimensionen berechnet, zwei der Dimensionen aus dem berechneten Anteil der Teile des an den mindestens drei Sensoren (13, 14) detektierten reflektierten Lichtpulses erhalten werden und eine dritte der Dimensionen aus der berechneten Laufzeit erhalten wird.
  4. System nach einem vorhergehenden Anspruch, wobei die Lichtsensoren (13, 14) jeweils einen unterschiedlichen Teil des an mehreren Objekten (1, 2) reflektierten Lichtpulses detektieren.
  5. System nach Anspruch 4, wobei die Berechnungseinrichtung (17) eine Laufzeit des Lichtpulses mit Bezug auf jedes der Objekte (1, 2) auf der Basis von an jeder Lichtquelle erzeugten Spitzenströmen über Zeit berechnet und jeweilige Spitzenströme unterschiedlicher Lichtquellen miteinander und mit der berechneten Laufzeit für das jeweilige Objekt (1, 2) vergleicht, um die Position des jeweiligen Objekts (1, 2) zu berechnen.
  6. System nach Anspruch 1, wobei die Apertur (15) ein Schlitz ist.
  7. System nach einem vorhergehenden Anspruch, wobei die Lichtsensoren (13, 14) Photodetektoren sind und der optische Detektor (11) eine Oberfläche mit einer Apertur (15) und eine Messeinrichtung, die einen Winkel von einfallendem Licht aus einem Anteil des an mindestens zwei der Fotodetektoren detektierten einfallenden Lichts nach Durchtritt durch die Apertur (15) berechnet, enthält.
  8. System nach Anspruch 1 bis 5, wobei der Detektor (11) ferner Folgendes umfasst: eine Peripherie (110) mit einer Apertur (111); ein Substrat (130) mit einer zusammenhängenden Epitaxialschicht (135) mit einer zusammenhängenden Oberfläche (136), die durch die Apertur (111) tretendes Licht empfängt; und mehrere Elektroden, die jeweils mit der Epitaxialschicht (135) in Kontakt stehen, um eine Menge des empfangenen Lichts zu detektieren.
  9. System nach Anspruch 8, wobei die mehreren Elektroden (137) zwei Elektroden enthalten, die in gleichen Distanzen von der Apertur (111) und einander gegenüber positioniert sind.
  10. System nach Anspruch 1 bis 5, wobei der Detektor (11) ferner Folgendes umfasst: eine Peripherie (110) mit mehreren Schlitzaperturen, von denen mindestens zwei orthogonal zueinander orientiert sind; ein Substrat (130) mit einer Epitaxialschicht (135), die durch jede der Schlitzaperturen (111) tretendes Licht empfängt; und ein Satz Elektroden (137), der mit jeder Schlitzapertur (111) assoziiert ist, wobei jede Elektrode (137) in jedem Satz in der Epitaxialschicht (135) angeordnet ist, um eine Menge des durch die jeweilige Schlitzapertur (111) tretenden empfangenen Lichts zu detektieren, wobei die Epitaxialschicht (135) zumindest für jeden Satz von Elektroden (137) eine zusammenhängende Oberfläche (136), die die Elektroden (137) in jedem jeweiligen Satz von Elektroden (137) umfasst, aufweist.
  11. System nach Anspruch 10, wobei die Epitaxialschicht (135) eine einzige zusammenhängende Oberfläche (136) aufweist, die jede Elektrode (137) umfasst.
  12. System nach Anspruch 10 oder 11, wobei die Epitaxialschicht (135) auf Germanium basiert.
  13. Verfahren, das Folgendes umfasst: Emittieren eines Lichtpulses; Detektieren von unterschiedlichen Teilen des Lichtpulses an jedem von mehreren Lichtsensoren (13, 14) eines Detektors (12), nachdem der Lichtpuls an einem Objekt reflektiert wird und durch eine Apertur (111) tritt, wobei die Apertur als eine Öffnung oder als ein transparenter oder lichtdurchlässiger Abschnitt ausgebildet ist; Berechnen einer Laufzeit des Lichtpulses; Vergleichen von Intensitäten von mindestens zwei der unterschiedlichen Teile miteinander; Berechnen einer Position des Objekts (1, 2) auf der Basis der berechneten Laufzeit und des Intensitätsvergleichs und wobei der Detektor (12) eine Oberfläche mit der Apertur enthält und die Lichtsensoren (13, 14) ein Paar von Photodetektoren enthalten die voneinander an einer dazwischenliegenden Grenze isoliert sind, wobei die Grenze mit der Apertur (135) ausgerichtet ist, wenn eine Mitte der Grenze mit einer Mitte der Apertur (135) zentriert ist.
  14. Verfahren nach Anspruch 13, das ferner Folgendes umfasst: Berechnen eines Winkels des reflektierten Lichtpulses aus dem Intensitätsvergleich; Berechnen der Position des Objekts (1, 2) in einer ersten Dimension auf der Basis des berechneten Winkels und Berechnen der Position des Objekts (1, 2) in einer zweiten Dimension auf der Basis der berechneten Laufzeit.
  15. Verfahren nach Anspruch 13 oder 14, das ferner Folgendes umfasst: Vergleichen der Intensitäten von unterschiedlichen Teilen des Lichtpulses, der an jedem eines ersten Paars von Lichtsensoren (13, 14) detektiert wird, miteinander; Berechnen eines ersten Winkels des reflektierten Lichtpulses mit Bezug auf das erste Paar von Lichtsensoren (13, 14) aus dem Intensitätsvergleich beim ersten Lichtsensorpaar; Vergleichen der Intensitäten von unterschiedlichen Teilen des Lichtpulses, der an jedem eines zweiten Paars von Lichtsensoren (13, 14) detektiert wird, miteinander; Berechnen eines zweiten Winkels des reflektierten Lichtpulses mit Bezug auf das zweite Paar von Lichtsensoren (13, 14) aus dem Intensitätsvergleich beim zweiten Paar, wobei das zweite Paar von Lichtsensoren (13, 14) nichtparallel mit dem ersten Paar ist; Berechnen der Position des Objekts (1, 2) in einer ersten und einer zweiten Dimension auf der Basis des berechneten ersten und zweiten Winkels des reflektierten Lichtpulses und Berechnen der Position des Objekts (1, 2) in einer dritten Dimension auf der Basis der berechneten Laufzeit.
  16. Verfahren nach Anspruch 13, 14 oder 15, das ferner Folgendes umfasst: Detektieren der Intensitäten von unterschiedlichen Teilen des reflektierten Lichtpulses, der durch eine Apertur (111) tritt, an jeder von mehreren Elektroden in einer Epitaxialschicht (135) auf einem Substrat, wobei die Epitaxialschicht (135) eine zusammenhängende Fläche aufweist, die jede der Elektroden umfasst; Vergleichen der detektierten Intensitäten des Lichtpulses an mindestens zwei der Elektroden miteinander; Berechnen der Position des Objekts (1, 2) auf der Basis der berechneten Laufzeit und der verglichenen Intensitäten.
  17. Verfahren nach Anspruch 16, das ferner kein Fokussieren des reflektierten Lichtpulses umfasst.
  18. Verfahren nach Anspruch 13, das ferner Folgendes umfasst: Detektieren der Intensität von unterschiedlichen Teilen des Lichtpulses, der durch eine Apertur (111) tritt, an jedem von mehreren Photodetektoren; Vergleichen der detektierten Intensitäten des Lichtpulses an mindestens zwei der Photodetektoren miteinander; und Berechnen der Position des Objekts (1, 2) relativ zum Detektor auf der Basis der berechneten Laufzeit und der verglichenen Intensitäten.
DE102014108310.5A 2013-06-20 2014-06-12 Optisches Laufzeitsystem Active DE102014108310B4 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201361837472P 2013-06-20 2013-06-20
US61/837,472 2013-06-20
US13/924,874 2013-06-24
US13/924,874 US9274202B2 (en) 2013-06-20 2013-06-24 Optical time-of-flight system

Publications (2)

Publication Number Publication Date
DE102014108310A1 DE102014108310A1 (de) 2014-12-24
DE102014108310B4 true DE102014108310B4 (de) 2023-06-01

Family

ID=52010570

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014108310.5A Active DE102014108310B4 (de) 2013-06-20 2014-06-12 Optisches Laufzeitsystem

Country Status (3)

Country Link
US (1) US9274202B2 (de)
KR (1) KR101624789B1 (de)
DE (1) DE102014108310B4 (de)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106471335B (zh) * 2014-07-03 2018-11-30 夏普株式会社 光反射型传感器和电子设备
US20170353649A1 (en) * 2016-06-07 2017-12-07 Stmicroelectronics, Inc. Time of flight ranging for flash control in image capture devices
EP3261134A1 (de) * 2016-06-20 2017-12-27 ams AG Direktionaler photodetektor und anordnung mit optischem sensor
US10116925B1 (en) * 2017-05-16 2018-10-30 Samsung Electronics Co., Ltd. Time-resolving sensor using shared PPD + SPAD pixel and spatial-temporal correlation for range measurement
USD875200S1 (en) 2018-01-03 2020-02-11 Bushnell Inc. Rangefinder display device
USD842723S1 (en) 2017-09-27 2019-03-12 Bushnell Inc. Rangefinder
USD926606S1 (en) 2017-11-01 2021-08-03 Bushnell Inc. Rangefinder
US20230117191A1 (en) 2020-03-13 2023-04-20 Analog Devices International Unlimited Company Detecting temperature of a time of flight (tof) system laser

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19821974A1 (de) 1998-05-18 1999-11-25 Rudolf Schwarte Vorrichtung und Verfahren zur Erfassung von Phase und Amplitude elektromagnetischer Wellen
DE10153742A1 (de) 2001-10-31 2003-05-15 Siemens Ag Verfahren und Vorrichtung zur Aufnahme eines dreidimensionalen Abstandsbildes
US20060221250A1 (en) 2004-01-28 2006-10-05 Canesta, Inc. Method and system to increase X-Y resolution in a depth (Z) camera using red, blue, green (RGB) sensing
GB2464172A (en) 2008-10-10 2010-04-14 Ilm Legal Services Ltd Handheld surveying apparatus for surveying buildings
US20120098935A1 (en) 2010-10-21 2012-04-26 Sony Corporation 3d time-of-flight camera and method
US20120105823A1 (en) 2010-11-03 2012-05-03 Cedes Safety & Automation Ag Color sensor insensitive to distance variations
EP2469295A1 (de) 2010-12-23 2012-06-27 André Borowski Echtzeit-3D-Landschaft-Bildwandler und entsprechende Bildgebungsverfahren
US20130037700A1 (en) 2010-09-10 2013-02-14 Denso Corporation Optical sensor
US20130300838A1 (en) 2010-12-23 2013-11-14 Fastree3D S.A. Methods and devices for generating a representation of a 3d scene at very high speed

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3701043A (en) 1970-02-16 1972-10-24 Mc Donnell Douglas Corp Negative resistance light emitting diode device
EP0625692B2 (de) * 1992-11-06 2004-05-19 Denso Corporation Pyrheliometrischer sensor
US6684007B2 (en) 1998-10-09 2004-01-27 Fujitsu Limited Optical coupling structures and the fabrication processes
US6522395B1 (en) * 1999-04-30 2003-02-18 Canesta, Inc. Noise reduction techniques suitable for three-dimensional information acquirable with CMOS-compatible image sensor ICS
DE60032772T2 (de) 2000-09-27 2007-11-08 Stmicroelectronics S.R.L., Agrate Brianza Integrierter chemischer Mikroreaktor mit thermisch isolierten Messelektroden und Verfahren zu dessen Herstellung
KR100708107B1 (ko) 2000-12-19 2007-04-16 삼성전자주식회사 전기 광학적 특성이 개선된 반도체 광 방출 장치 및 그제조방법
US6718826B2 (en) 2002-02-28 2004-04-13 Delphi Technologies, Inc. Balanced angular accelerometer
KR100598098B1 (ko) 2004-02-06 2006-07-07 삼성전자주식회사 매몰 절연 영역을 갖는 모오스 전계 효과 트랜지스터 및그 제조 방법
JP2008226903A (ja) 2007-03-08 2008-09-25 Toshiba Corp 光センサ素子およびその駆動方法
US8325349B2 (en) 2008-03-04 2012-12-04 California Institute Of Technology Focal plane adjustment by back propagation in optofluidic microscope devices
DE102008062450B4 (de) 2008-12-13 2012-05-03 Vistec Electron Beam Gmbh Anordnung zur Beleuchtung eines Substrats mit mehreren individuell geformten Partikelstrahlen zur hochauflösenden Lithographie von Strukturmustern
FR2942049B1 (fr) 2009-02-12 2011-04-01 Ecole Norm Superieure Lyon Microscope de plasmon de surface a haute resolution comportant un interferometre heterodyne fibre
US20100301728A1 (en) 2009-06-02 2010-12-02 Bridgelux, Inc. Light source having a refractive element
US8643092B2 (en) 2009-11-20 2014-02-04 Force Mos Technology Co., Ltd. Shielded trench MOSFET with multiple trenched floating gates as termination
KR101098165B1 (ko) 2010-01-29 2011-12-22 센스기술 주식회사 전 파장 대의 양자효율이 우수한 수직구조의 실리콘 광전자 증배관
US8149653B2 (en) 2010-03-22 2012-04-03 Tdk Corporation Light source unit for thermally-assisted magnetic recording capable of monitoring of light output
US9410858B2 (en) 2011-10-31 2016-08-09 Nsk Ltd. Optical scale having wires, method for manufacturing optical scale having wires,and optical encode
US8581307B1 (en) 2012-07-06 2013-11-12 Omnivision Technologies, Inc. Large CMOS image sensor pixel with improved performance

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19821974A1 (de) 1998-05-18 1999-11-25 Rudolf Schwarte Vorrichtung und Verfahren zur Erfassung von Phase und Amplitude elektromagnetischer Wellen
DE10153742A1 (de) 2001-10-31 2003-05-15 Siemens Ag Verfahren und Vorrichtung zur Aufnahme eines dreidimensionalen Abstandsbildes
US20060221250A1 (en) 2004-01-28 2006-10-05 Canesta, Inc. Method and system to increase X-Y resolution in a depth (Z) camera using red, blue, green (RGB) sensing
GB2464172A (en) 2008-10-10 2010-04-14 Ilm Legal Services Ltd Handheld surveying apparatus for surveying buildings
US20130037700A1 (en) 2010-09-10 2013-02-14 Denso Corporation Optical sensor
US20120098935A1 (en) 2010-10-21 2012-04-26 Sony Corporation 3d time-of-flight camera and method
US20120105823A1 (en) 2010-11-03 2012-05-03 Cedes Safety & Automation Ag Color sensor insensitive to distance variations
EP2469295A1 (de) 2010-12-23 2012-06-27 André Borowski Echtzeit-3D-Landschaft-Bildwandler und entsprechende Bildgebungsverfahren
US20130300838A1 (en) 2010-12-23 2013-11-14 Fastree3D S.A. Methods and devices for generating a representation of a 3d scene at very high speed

Also Published As

Publication number Publication date
DE102014108310A1 (de) 2014-12-24
KR20140147700A (ko) 2014-12-30
KR101624789B1 (ko) 2016-05-26
US20140375978A1 (en) 2014-12-25
US9274202B2 (en) 2016-03-01

Similar Documents

Publication Publication Date Title
DE102014108310B4 (de) Optisches Laufzeitsystem
DE112012005324B4 (de) Integrierte Schaltung und Verfahren zum Detektieren eines Winkels von einfallendem Licht
EP2019973B1 (de) Distanzmessverfahren und distanzmesser zur erfassung der räumlichen abmessung eines zieles
DE102013225676B4 (de) Lichtlaufzeitkamera mit einer Bewegungserkennung
EP3418766B1 (de) Optoelektronischer sensor und verfahren zur messung der entfernung zu einem objekt
EP1665382B1 (de) Optoelektronischer sensor und vorrichtung zur 3d-abstandsmessung
EP1009984B1 (de) Verfahren und vorrichtung zur bestimmung der phasen- und/oder amplitudeninformation einer elektromagnetischen welle
DE212018000118U1 (de) LiDAR-Ausleseschaltkreis
EP3438699A1 (de) Distanzmesser mit spad-anordnung zur berücksichtigung von mehrfachzielen
DE112020001783T5 (de) Flugzeitsensor
DE212017000248U1 (de) LiDAR-Vorrichtung
EP3451021A1 (de) Messgerät mit scanfunktionalität und einstellbaren empfangsbereichen des empfängers
DE60124647T2 (de) Vorrichtung und Verfahren zur Abstandsmessung
DE212017000247U1 (de) LiDAR-Vorrichtung
DE112011101667T5 (de) Abtastender 3D-Bildgeber
EP2708913A1 (de) Optoelektronischer Sensor und Verfahren zur Objekterfassung
DE112008003342T5 (de) Aufzeichnung von 3D-Bildern einer Szene
WO2018185083A2 (de) Lichtlaufzeitkamera
EP3450915A1 (de) Totalstation oder theodolit mit scanfunktionalität und einstellbaren empfangsbereichen des empfängers
DE112012006401T5 (de) Bereichssensor und Bereichsbildsensor
EP3029494A1 (de) Optoelektronischer Sensor
DE102018220932A1 (de) Verfahren zum Bestimmen des Abstands und Rückstrahlvermögens einer Objektoberfläche
DE102015217912A1 (de) Verfahren zur Laufzeitkalibrierung eines Lidarsensors
EP2013642A1 (de) Vorrichtung und verfahren zur aufnahme von entfernungsbildern
DE102020202764A1 (de) Lichtdetektionseinrichtung und elektronikvorrichtung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R082 Change of representative

Representative=s name: WITHERS & ROGERS LLP, DE

R081 Change of applicant/patentee

Owner name: ANALOG DEVICES, INC., WILMINGTON, US

Free format text: FORMER OWNER: ANALOG DEVICES INC., NORWOOD, MASS., US

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final