DE102022110063A1 - Sensoreinrichtung für eine Türraumüberwachung - Google Patents

Sensoreinrichtung für eine Türraumüberwachung Download PDF

Info

Publication number
DE102022110063A1
DE102022110063A1 DE102022110063.4A DE102022110063A DE102022110063A1 DE 102022110063 A1 DE102022110063 A1 DE 102022110063A1 DE 102022110063 A DE102022110063 A DE 102022110063A DE 102022110063 A1 DE102022110063 A1 DE 102022110063A1
Authority
DE
Germany
Prior art keywords
light
light pulse
sensor device
sensor
transmitter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022110063.4A
Other languages
English (en)
Inventor
Axel Reimann
Andreas Thun-Hohenstein
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Iris GmbH IG Infrared and Intelligent Sensors
Original Assignee
Iris GmbH IG Infrared and Intelligent Sensors
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Iris GmbH IG Infrared and Intelligent Sensors filed Critical Iris GmbH IG Infrared and Intelligent Sensors
Priority to DE102022110063.4A priority Critical patent/DE102022110063A1/de
Publication of DE102022110063A1 publication Critical patent/DE102022110063A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4818Constructional features, e.g. arrangements of optical elements using optical fibres
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/04Systems determining the presence of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4816Constructional features, e.g. arrangements of optical elements of receivers alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Die Erfindung betrifft Sensoreinrichtung (10) mit einem Sender (12) zum Aussenden eines Lichtpulses, einem Bildaufnehmer (14), der eine abbildende Optik (20) und wenigstens eine Empfängermatrix (18) mit einer Vielzahl lichtempfindlicher Sensoren (16) umfasst, einer mit dem Bildaufnehmer (14) und dem Sender (12) verbundene Steuerungseinheit, die ausgebildet ist, das Aussenden eines Lichtpulses von dem Sender (12) auszulösen, und einer Auswerteeinheit (24), die ausgebildet ist, für die verschiedenen lichtempfindlichen Sensoren (16) jeweils eine Signallaufzeit (ToF) zwischen dem Aussenden eines jeweiligen Lichtpulses und dem Erfassen eines reflektierten Anteils des Lichtpulses zu bestimmen, um auf Basis der Signallaufzeiten ein 3D-Bild zu generieren.Die abbildende Optik (20) umfasst zwei lichtleitende Optiken, insbesondere zwei Lichtleiter (26.1, 26.2), die empfangene Lichtpulse von dem jeweiligen aufnehmenden Ende (28.1, 28.2) zu dem jeweiligen abbildenden Ende (30.1, 30.2) leiten, so dass aus dem jeweiligen abbildenden Ende (30.1, 30.2) austretendes Licht auf einen oder mehrere der lichtempfindlichen Sensoren (16) einer oder der Empfängermatrix (18) trifft. Die Auswerteeinheit (24) ist ausgebildet, die jeweilige Signallaufzeit zwischen dem Aussenden eines Lichtpulses und dem Auftreffen eines jeweiligen reflektierten Anteils des Lichtpulses auf ein aufnehmendes Ende (28.1, 28.2) eines jeweiligen Lichtleiters (26.1, 26.2) zu bestimmen.

Description

  • Die Erfindung betrifft eine Sensoreinrichtung für eine Türraumüberwachung.
  • Um durch einen Türraum tretende Personen zu erfassen, werden bei Gebäuden oder Fahrzeugen häufig Sensoren auf der Oberseite des Türraums angeordnet, so dass der Sensor oder die Sensoren den Türraum von oben erfassen. Ein Einsatzbereich ist das Zählen von Personen, die einen Türraum durchqueren. Dies dient beispielsweise dem Erfassen der Passagierzahl eines Fahrzeugs, etwa eines Busses oder einer Bahn. Als Sensoren kommen unter anderem Time-of-Flight-Sensoren (ToF-Sensoren) zum Einsatz, welche die Laufzeit von Lichtpulsen erfassen und auf diese Weise eine Art dreidimensionales Bild aufnehmen. Typischerweise ist der Türraum - d.h. die Durchtrittsöffnung für Personen - nicht einmal oder nur wenige Zentimeter größer, als die größten erwarteten Personen. Die ÜberKopf-Montage der Sensoren im Fahrzeug zum Zweck der Personenzählung (APC: automatic passenger counting) führt bei niedrigen und/oder breiten Türen leicht dazu, dass das Sichtfeld des Sensors - zum Beispiel durch eine einzelne, großgewachsene Person - teilweise oder vollständig verdeckt wird. Dies beeinträchtigt die Zählgenauigkeit. Insbesondere Pulksitutationen, also Gedränge im Sichtfeld des Sensors, stellen eine große Herausforderung dar, da das oben genannte Problem durch (partielle) Mehrfachverdeckungen noch verschärft wird.
  • In solchen Fällen oder bei sehr breiten Türen wird für die Überwachung eines Türbereichs oft eine Sensorgruppe, d.h. ein Verbund von mindestens zwei Sensoren, eingesetzt. Probleme ergeben sich hierbei daraus, dass der Bauraum im Türbereich knapp bemessen ist, und dass eine Sensorgruppe signifikant teurer als ein Einzelsensor ist. Ein weiterer Nachteil ist der erhöhte Stromverbrauch. Mit zunehmender Elektrifizierung von Fahrzeugflotten im Automotive-Bereich erhält letzteres Argument mehr Gewicht.
  • Der Erfindung liegt die Aufgabe zugrunde, eine Sensoreinrichtung zu schaffen, die Nachteile bekannter Sensoreinrichtungen für eine Türraumüberwachung möglichst vermeidet.
  • Erfindungsgemäß wird hierzu eine Sensoreinrichtung vorgeschlagen, die
    • - mindestens einen Sender zum Aussenden mindestens eines Lichtpulses, insbesondere eines Infrarotlicht-Pulses,
    • - einen Bildaufnehmer, der eine abbildende Optik und wenigstens eine Empfängermatrix mit einer Vielzahl lichtempfindlicher Sensoren - im Folgenden auch Pixel genannt - umfasst, wobei die abbildende Optik ausgebildet ist, von innerhalb eines Erfassungsbereichs des Bildaufnehmers befindlichen Objekten reflektierte Anteile des Lichtpulses auf die Empfängermatrix abzubilden,
    • - eine mit dem Bildaufnehmer und dem Sender verbundene Steuerungseinheit, die ausgebildet ist, das Aussenden eines Lichtpulses von dem Sender auszulösen, und
    • - eine Auswerteeinheit aufweist, die ausgebildet ist, für die verschiedenen lichtempfindlichen Sensoren jeweils eine Signallaufzeit (ToF, time of flight) als Zeitdifferenz zwischen dem Aussenden eines jeweiligen Lichtpulses und dem Erfassen eines reflektierten Anteils des Lichtpulses zu bestimmen, um auf Basis der Signallaufzeiten ein 3D-Bild zu generieren.
  • Erfindungsgemäß umfasst die abbildende Optik zwei lichtleitende Optiken, insbesondere Lichtleiter, die jeweils vorzugsweise ein Bündel optischer Fasern, insbesondere Monomode-Fasern aufweisen und die jeweils ein aufnehmendes Ende und ein abbildendes Ende haben und empfangene Lichtpulse von dem jeweiligen aufnehmenden Ende zu dem jeweiligen abbildenden Ende leiten, so dass aus dem jeweiligen abbildenden Ende austretendes Licht auf einen oder mehrere der lichtempfindlichen Sensoren einer oder der Empfängermatrix trifft. Die Auswerteeinheit ist ausgebildet, die Signallaufzeit zwischen dem Aussenden eines Lichtpulses und dem Auftreffen eines jeweiligen reflektierten Anteils des Lichtpulses auf ein aufnehmendes Ende eines jeweiligen Lichtleiters zu bestimmen.
  • Das Bestimmen der Signallaufzeiten durch die Auswerteeinheit kann in an sich bekannter Weise ein Aufintegrieren eines in ein Integrationszeitfenster fallenden Anteils eines reflektierten Lichtpulses umfassen. Dies geschieht für jeden Sensor (jeden Pixel) der Empfängermatrix. Dies bedeutet, dass die Zeitdauer zwischen dem Aussenden eines Lichtpulses und dem Erfassen eines reflektierten Anteils des Lichtpulses durch einen der lichtempfindlichen Sensoren der Empfängermatrix sowohl die Laufzeit des Lichtpulses zwischen Sender und aufnehmendem Ende einer oder mehrerer optischer Fasern einer der lichtleitenden Optiken als auch die Laufzeit durch die optischen Fasern dieser lichtleitenden Optik umfasst.
  • Vorzugsweise ist das von dem Sender ausgesendete Licht sinusförmig moduliert, d.h. die Lichtpulse habe die Form des Abschnitts einer Sinuskurve. Damit wird dem Problem begegnet, dass der Lichtpuls infolge potentieller Mehrfachreflektionen oder unterschiedlicher Lauflängen innerhalb einer Faser „verläuft“, was bei Rechteckpulsen dazu führt, dass die Flankensteilheit von Rechteckpulsen abnimmt.
  • Vorzugsweise verarbeitetet die Auswerteeinheit beim Bestimmen der Signallaufzeiten Laufzeitkorrekturwerte, die die ggf. unterschiedlichen Signallaufzeiten für einen Lichtpuls zwischen dem aufnehmenden Ende des jeweiligen Lichtleiters und dem Auftreffen des Lichtpulses auf dem mindestens einen lichtempfindlichen Sensor der Empfängermatrix widerspiegeln. Vorzugsweise ist die Sensoreinrichtung kalibriert und weist einen Speicher mit Kalibrierwerten auf, die Laufzeitkorrekturwerte umfassen, welche die ggf. verschiedenen Signallaufzeiten für einen Lichtpuls zwischen dem aufnehmenden Ende des jeweiligen Lichtleiters und dem Auftreffen des Lichtpulses auf mindestens einen lichtempfindlichen Sensor der Empfängermatrix repräsentieren.
  • Insbesondere wenn der Lichtleiter ein Bündel optischer Fasern umfasst und jede optische Faser einen Anteil eines reflektierten Lichtpulses zu einem oder mehreren der lichtempfindlichen Sensoren leitet, können die die Signallaufzeiten für die Anteile eines reflektierten Lichtpulses zwischen aufnehmendem Ende des Lichtleiters und den lichtempfindlichen Sensoren der Empfängermatrix selbst unterschiedlich sein und zu Verfälschungen der Signallaufzeiten führen, die ein Lichtpuls zwischen Aussenden und Auftreffen auf dem aufnehmenden Ende des Lichtleiters gebraucht hat, und die für eine korrektes 3D-Bild relevant sind. Derartige Laufzeitabweichungen haben zur Folge, dass Anteile eines in Form einer ebenen Welle senkrecht auf das aufnehmende Ende des Lichtleiters treffenden, reflektierten Lichtpulses zu unterschiedlichen Erfassungszeitpunkten bei den verschiedenen lichtempfindlichen Sensoren der Empfängermatrix führen, obwohl ein derartiger reflektierter Lichtpuls zu identischen Erfassungszeitpunkten führen sollte. Solche Laufzeitabweichungen können durch die Auswerteeinheit mittels der Kalibierwerte und insbesondere der Laufzeitkorrekturwerte kompensiert werden.
  • Wenn ein Lichtleiter beispielsweise von einem Bündel optischer Fasern gebildet ist, ist es möglich, dass die Laufzeiten innerhalb der optischen Fasern von Faser zu Faser unterschiedlich sind. In diesem Fall werden für einen Lichtleiter vorzugsweise mehrere Laufzeitkorrekturwerte erfasst, die z.B. eine Laufzeitkorrekturmatrix bilden können. Insbesondere, wenn die Zuordnung von optischen Fasern eines Lichtleiters zu den Sensoren (Pixeln) der Empfängermatrix nicht 1:1 ist (weil beispielsweise die Fläche der Sensoren kleiner ist, als der Durchmesser der optischen Fasern, so dass mehr als ein Sensor das Licht aus einer optischen Faser aufnimmt) ist es sinnvoll, wenn die Laufzeitkorrekturwerte für die jeweils genutzten Sensoren der Empfängermatrix gebildet werden, und nicht für die einzelnen optischen Fasern. In diesem Fall führen unterschiedliche Laufzeiten zweier optischer Fasern, deren Licht einem Sensor (einem Pixel) zugeführt wird, zu einem gemittelten Laufzeitkorrekturwert in der Laufzeitkorrekturmatrix.
  • Entsprechend ist die Auswerteeinheit der Sensoreinrichtung vorzugsweise ausgebildet, beim Bestimmen der Signallaufzeiten Laufzeitkorrekturwerte einzubeziehen, die die Signallaufzeit für einen Lichtpuls zwischen dem aufnehmenden Ende des jeweiligen Lichtleiters und dem Auftreten des Lichtpulses auf dem mindestens einen lichtempfindlichen Sensor der Empfängermatrix widerspiegeln.
  • Hierfür ist die Sensoreinrichtung vorzugsweise kalibriert und weist einen Speicher auf, der Kalibrierwerte enthält, welche Laufzeitkorrekturwerte umfassen, die die Signallaufzeiten für einen Lichtpuls zwischen dem aufnehmenden Ende des jeweiligen Lichtleiters und dem Auftreten des Lichtpulses auf dem mindestens einen lichtempfindlichen Sensor der Empfängermatrix repräsentieren.
  • Für den Fall, dass ein Lichtleiter ein Bündel optischer Fasern aufweist, sind die einzelnen optischen Fasern vorzugsweise Monomodefasern, um variierende Laufzeitabweichungen infolge von variierenden Mehrfachreflektion innerhalb einzelner optischer Fasern zu vermeiden.
  • Vorzugsweise ergibt das in eine optische Faser eintretende Licht eines reflektierten Lichtpulses einen Bildpunkt in dem 3D-Bild, das heißt, die räumliche Auflösung des 3D-Bildes hängt von der Anzahl optischer Fasern eines Lichtleiters ab. In diesem Fall ist die Anzahl der von einem Lichtleiter beleuchteten Sensoren (Pixel) gleich oder größer als die Anzahl der optischen Fasern des Lichtleiters. Vorzugsweise verlaufen alle optischen Fasern eines Faserbündels parallel zueinander, so dass die Anfänge und die Enden der optischen Fasern in einem identischen Muster angeordnet sind, sich also jeweils die gleichen optischen Fasern in identischer Anordnung nebeneinander befinden.
  • Alternativ können die optischen Fasern eines Faserbündels aber auch nicht-kohärent, also ungeordnet sein, so dass die Anfänge und die Enden der optischen Fasern in unterschiedlichen Mustern angeordnet sind. Das von den Anfängen der optischen Fasern aufgenommene Signalmuster ist dann ein anderes, als das von den lichtempfindlichen Sensoren der Empfängermatrix empfangene Signalbild. Dies kann ebenfalls durch entsprechende Kalibrierung kompensiert werden. Die Kalibrierwerte enthalten dann laterale Verschiebungswerte, die angeben auf welche Position einer virtuellen Empfängermatrix die den einzelnen optischen Sensoren der Empfängermatrix zugeordneten Signallaufzeiten (oder daraus abgeleitete abstandwerte) verschoben werden müssen, um die veränderte Anordnung zu kompensieren.
  • Bei nicht kohärenten optischen Fasern eines Lichtleiters ist es vorteilhaft, wenn die optischen Fasern jeweils genau einem Strahlungssensor des Bildaufnehmers (also 1:1) zugeordnet sind.
  • Die erfindungsgemäße Sensoreinrichtung löst das Problem, dass für einen APC-Sensor typischerweise nur ein sehr beengter Bauraum zur Verfügung steht. Mit dem dadurch verursachten knapp bemessenen Gehäusevolumen gehen erhöhte Entwicklungskosten einher, da unter anderem Probleme der Wärmeabfuhr und der Einhaltung von Sicherheitsabständen zum Zwecke des Überspannungsschutzes unter diesen Randbedingungen nur schwer zu lösen sind.
  • Die folgenden Ansätze tragen zur Problemlösung bei. Insbesondere hat der Erfinder erkannt, dass die beschriebenen Probleme sich gleichzeitig lösen lassen, wenn folgende technische Modifikationen umgesetzt werden:
    • - Der Ort der Bildaufnahme und der Ort der Bildauswertung werden räumlich getrennt. Dies ermöglicht den Einsatz einfacherer Gehäuse, welche den Entwicklungsaufwand und Kosten reduzieren, sowie die Möglichkeiten der Wärmeabfuhr verbessern. Die technische Umsetzung der Trennung kann durch Verwendung lichtleitender Optiken, insbesondere Lichtleitern mit Bündeln optischer Fasern zur Szenenbeleuchtung und Bildübertragung erreicht werden.
    • - Es werden mindestens zwei nebeneinander über der Tür befindliche Orte für die Bildaufnahme verwendet. So gewinnt man den Vorteil der Verwendung einer Sensorgruppe, das heißt, Verdeckungsprobleme werden reduziert und auch breite Türen lassen sich besser überwachen.
    • - Um die Nachteile der Verwendung einer Sensorgruppe zu umgehen, werden innerhalb des Gehäuses die Ausleitungen der lichtleitenden Optiken auf ein- und denselben Bildaufnehmer projiziert. Die Pixel-Auflösungen moderner ToF-Bildaufnehmer sind so hoch, dass die für den Anwendungszweck APC nötigen Auflösungen um ein Mehrfaches überschritten werden. Somit wird es theoretisch möglich, mehr als ein Bild in ausreichender Auflösung gleichzeitig aufzunehmen. Die Separierung der Aufnahme in die zu den lichtleitenden Optiken gehörenden verschiedenen Szenen sowie die Auswertung derselben kann dann mittels Software erfolgen.
    • - Die lichtleitenden Optiken können so ausgelegt werden, dass sie aus einem kohärenten inneren Faserbündel optischer Fasern zur Bildaufnahme und -übertragung, sowie einem optisch getrennten und nicht notwendigerweise kohärenten äußeren Faserbündel zur Einspeisung modulierten Lichtes in die Szene besteht. Kohärent heißt in diesem Zusammenhang, dass die räumliche Anordnung der einzelnen Fasern eines Faserbündels an der Eintritts- und der Austrittsöffnung des Bündels identisch ist. Die Anordnung einzelner Bildpunkte bleibt dadurch über den Übertragungsweg im Bündel hinweg erhalten.
    • - Die Lichtleiter können alternativ so ausgelegt werden, dass statt einem äußeren Faserbündel nur die Stromversorgung für eine als Sender dienende Lichtquelle durch einen Mantel des Lichtleiters in den Objektivbereich geführt wird.
  • Gemäß einer vorteilhaften Ausführungsvariante der Sensoreinrichtung sind die Faserbündel der Lichtleiter Teil einer Faseroptik und bilden jeweils ein kohärentes inneres Faserbündel zur Bildaufnahme und -übertragung, wobei die Faseroptik separate, äußere Beleuchtungsfasern (48) zum Leiten des auszusendenden Lichtpulses aufweist.
  • Vorzugsweise weist der Sender mindestens eine lichtabgebende Diode, insbesondere eine Laserdiode auf.
  • Außerdem ist es vorteilhaft, wenn der Sender zum Aussenden eines Infrarotlichtpulses als Lichtpuls ausgebildet ist.
  • Gemäß einer vorteilhaften Ausführungsvariante der Sensoreinrichtung ist der Sender ausgebildet, einen Lichtpuls in eine oder mehrere Fasern des Lichtleiters einzuspeisen. In diesem Fall kann der Sender in dem gleichen Gehäuse wie der Bildaufnehmer untergebracht sein. Diese Ausführungsvariante erlaubt eine kompakte, integrierte Sensoreinrichtung mit wenigen äußeren Komponenten wie beispielsweise den lichtleitenden Optiken.
  • Gemäß einer alternativen vorteilhaften Ausführungsvariante der Sensoreinrichtung ist eine lichtabgebende Diode, insbesondere eine Laserdiode des Senders neben oder zwischen den aufnehmenden Enden der Lichtleiter angeordnet, sodass der Lichtpuls unmittelbar, d.h. ohne zwischengeschaltete optische Fasern, im Erfassungsbereich des Bildaufnehmers befindliche Objekte beleuchten kann. In diesem Fall ist der Sender vorzugsweise mittels eines Kabels mit der übrigen Sensoreinrichtung verbunden. Diese Ausführungsvariante bietet eine größere Flexibilität bei der Montage der Sensoreinrichtung.
  • Die Erfindung soll nun anhand eines Ausführungsbeispiels mit Bezug auf die Figuren näher erläutert werden. Von den Figuren zeigt:
    • 1: eine erfindungsgemäße Sensoreinrichtung;
    • 2: eine Variante der erfindungsgemäßen Sensoreinrichtung
    • 3: illustriert das Bestimmen der Signallaufzeit (time of flight, tof) mittels einer zweifachen Abtastung des von einem Anteil des reflektierten Lichtpulses bewirkten Signals;
    • 4: illustriert das Bestimmen der Signallaufzeit (time of flight, tof) mittels einer vierfachen Abtastung des von einem Anteil des reflektierten Lichtpulses bewirkten Signals;
    • 5: ist eine perspektivische Außenansicht einer Sensoreinrichtung, bei der die elektronischen Komponenten in einem gemeinsamen Gehäuse angeordnet sind;
    • 6 illustriert, wie zwei Lichterleiter zwei verschiedene Bereiche einer einzigen Empfängermatrix beleuchten;
    • 7-9 illustrieren, wie die optischen Fasern eines Faserbündels verschiedenen Strahlungssensoren einer Empfängermatrix zugeordnet sein können, je nachdem wie die Durchmesser der optischen Fasern und das Rastermaß der Empfängermatrix ausgebildet sin.
    • 10a, 10b und 11 illustrieren eine abbildende Optik in Form eines Objektivs am freien Ende einer lichtleitenden Optik, die neben optischen Fasern zur Aufnahme eines Bildes auch Beleuchtungsfasern aufweisen.
  • Eine typische Sensoreinrichtung 10 für eine Türraumüberwachung weist mindestens einen Sender 12 auf, der Lichtpulse mit definierter Pulslänge ausgeben kann. Der Sensor 12 weist hierzu vorzugsweise mindestens eine Laserdiode auf, die infrarotes Licht abgeben kann.
  • Weiterer Bestandteil einer solchen Sensoreinrichtung 10 ist ein Bildaufnehmer 14, der zum einen eine von einer Vielzahl lichtempfindlicher Sensoren 16 gebildete Empfängermatrix 18 aufweist und zum anderen eine abbildende Optik 20. Die einzelnen lichtempfindlichen Sensoren 16 der Empfängermatrix 18 bilden die Pixel einer Bildsensormatrix. Mittels der abbildenden Optik 20 kann von im Erfassungsbereich des Bildaufnehmers 14 befindlichen Objekten ausgehendes Licht auf die Empfängermatrix abgebildet werden. Dies entspricht etwa dem, was ein Objektiv als abbildende Optik einer Digitalkamera leistet, damit diese ein von der abbildenden Optik entsprechend auf den Bildsensor fokussiertes Bild der Umgebung aufnehmen kann. Im vorliegenden Fall ist das aufzunehmende, von den Objekten herrührende Licht ein Anteil von dem von dem Sender 12 ausgesandten, von den Objekten reflektierten Lichtpulses.
  • Zum Steuern der Sensoreinrichtung 10 weist dieser eine Steuereinheit 22 auf, die insbesondere dazu dient, das Aussenden eines Lichtpulses durch den Sender 12 auszulösen.
  • Außerdem weist die Sensoreinrichtung 10 eine Auswerteeinheit 24 auf, die dazu ausgebildet ist, die Signallaufzeiten zwischen dem Aussenden eines Lichtpulses und dem Auftreffen des jeweiligen reflektierten Anteils des Lichtpulses auf die abbildende Optik 20 bzw. die Empfängermatrix 18 zu bestimmen.
  • Dies kann in an sich bekannter Weise durch Aufintegrieren eines in ein Integrationszeitfenster fallenden Anteils des reflektierten Lichtpulses geschehen bzw. ein derartiges Aufintegrieren umfassen.
  • In Anbetracht der eingangs geschilderten Problematik ist es vorgesehen, dass die abbildende Optik 20 zwei Lichtleiter 26.1 und 26.2 aufweist, die jeweils ein aufnehmendes Ende 28.1 bzw. 28.2 und ein abbildendes Ende 30.1 bzw. 30.2 aufweisen. Anteile eines reflektierten Lichtpulses können in das jeweilige aufnehmende Ende 28.1 bzw. 28.2 eintreten und werden dann von dem Lichtleiter 26.1 oder 26.2 zum jeweiligen abbildenden Ende 30.1 bzw. 30.2 geleitet und gelangen von dort aus zu den einzelnen lichtempfindlichen Sensoren (Pixeln) der Sensormatrix.
  • In der in 1 dargestellten, vorteilhaften Ausführungsvariante leiten die Lichtleiter 26.1 und 26.2 die jeweils empfangenen Anteile des reflektierten Lichtpulses zu verschiedenen Bereichen der Empfängermatrix 18. Die Empfängermatrix 18 kann damit die Funktion wahrnehmen, die sonst mit zwei separaten Empfängermatrizen und üblicherweise auch mit zwei separaten Bildaufnehmern erreicht wird. Ein erster Bereich 32.1 der Empfängermatrix 18 empfängt ein von dem ersten Lichtleiter 26.1 zu der Empfängermatrix 18 geleitetes Bild und ein zweiter Bereich 32.2 empfängt ein von dem zweiten Lichtleiter 26.2 zu der Empfängermatrix 18 geleitetes Bild.
  • Die aufnehmenden Enden 28.1 und 28.2 der Lichtleiter 26.1 und 26.2 haben typischerweise einen größeren Abstand voneinander, als deren abbildende Enden 30.1 und 30.2. Auf diese Weise kann der Effekt erzielt werden, der sonst von zwei separaten, entsprechend voneinander entfernten Bildaufnehmern erzielt wird.
  • Jeder Lichtleiter 26.1 und 26.2 umfasst vorzugweise ein Faserbündel 34, das von einer Vielzahl optischer Fasern 36 gebildet sind; siehe 7 bis 11. Die optischen Fasern 36 sind vorzugsweise Monomode-Fasern und vorzugsweise streng kohärent, sodass die Faserenden am lichtaufnehmenden Ende 28 des Lichtleiters 26 die gleiche Anordnung haben, wie am abbildenden Ende 30 des Lichtleiters 26.
  • Ein jeweiliger Lichtleiter 26 ist gemäß einer ersten Ausführungsform Teil einer Faseroptik 38 die neben dem aufnehmenden Faserbündel 24 auch wenigstens eine lichtleitende Beleuchtungsfaser 40 für einen auszusendenden Lichtpuls aufweist. Die Beleuchtungsfaser 40 oder eine Mehrzahl Beleuchtungsfasern 40 ist außerhalb des Faserbündels 34 in der Faseroptik 38 angeordnet; siehe 10b.
  • Alternativ kann der Sender 12 auch über ein Kabel an die übrige Sensoreinrichtung 10' angebunden sein, so dass das von dem Sender 12 ausgesandte Licht nicht über Beleuchtungsfasern geleitet zu werden braucht; siehe 2.
  • In jeder der Ausführungsvarianten weist der Sender 12 vorzugsweise eine Laserdiode 48 auf.
  • Die Signallaufzeit für einen Lichtpuls von einem Eintrittsende 42 zu einem Austrittsende 44 einer jeweiligen optischen Faser 36 kann zwischen den verschiedenen optischen Fasern 36 des Faserbündels 34 variieren. Dies führt bei der Bestimmung von Signallaufzeiten durch die Auswerteeinheit 24 zu Fehlern, die dadurch kompensiert werden können, dass die Auswerteeinheit 24 für die jeweiligen Fasern 36 bestimmte Laufzeitkorrekturwerte berücksichtigt, die durch kalibrieren ermittelt wurden. Zum Speichern der durch Kalibrieren ermittelten Laufzeitkorrekturwerte weist die Sensoreinrichtung 10 einen Speicher 46 auf.
  • Das Bestimmen der Signallaufzeit (time of flight, tof) mittels einer 3D-TOF-Sensoreinrichtung 10 ist aus dem Stand der Technik grundsätzlich bekannt.
  • Bekannt 3D-TOF-Sensoreinrichtungen weisen mindestens einen optischen Sender 12 zum Aussenden elektromagnetischer Strahlung vorzugsweise (aber nicht ausschließlich) im nahen Infrarotbereich und einen Bildaufnehmer 14 auf, der aus einer Anordnung von Strahlungssensoren 16 aufgebaut ist. Die einzelnen Strahlungssensoren 16 entsprechen jeweils einem Pixel (Bildpunkt) des Bildaufnehmers 14 und damit der 3D-TOF- Sensoreinrichtung.
  • Typischerweise sind die Strahlungssensoren in zwei Gruppen (Strahlungsempfänger A, Strahlungsempfänger B) eingeteilt und als Matrix angeordnet.
  • Jeder Strahlungssensor besitzt ein fotoempfindliches Element (z.B. eine Fotodiode oder ein Fotogate) und mindestens eine Speicherkapazität.
  • Eine typische Funktionsweise einer TOF- Sensoreinrichtung ist wie folgt; siehe 2 und 3:
    • Zu einem Zeitpunkt t0 wird der Sender aktiviert, der für einen kurzen Zeitraum ti (z.B. 30ns) einen Lichtpuls mit einer ti entsprechenden Lichtpulsdauer aussendet. Gleichzeitig wird der Strahlungssensor A für ebenfalls einen kurzen Aktivierungszeitraum tA (z.B. ebenfalls 30ns) aktiviert. Der Lichtpuls wird an einem Objekt reflektiert und vom Strahlungssensor A um die Flugzeit tof versetzt registriert. Während des Aktivierungszeitraums tA bewirkt die Energie des reflektierten Lichtpulses das Freisetzen von Ladungen - nämlich von Fotoelektronen - in dem fotoempfindlichen Element des Strahlungssensors. Die aus der Registrierung des Lichtpulses resultierende Ladungsmenge (entsprechend der Anzahl freigesetzter Fotoelektronen) werden auf der Speicherkapazität (A1) abgelegt. Der Strahlungssensor A kann nur jenen Teil des reflektierten Lichtpulses aufnehmen, der der Zeitdifferenz tA-tof entspricht, da der reflektierte Lichtpuls um die Flugzeit tof gegenüber dem Beginn des Aktivierungszeitraums verzögert auf das fotoempfindliche Element trifft, so dass sich der Aktivierungszeitraum und die Pulsdauer des reflektierten Lichtpulses nur teilweise für eine Überlappungsdauer zeitlich überlappen. Die Überlappungsdauer ist umgekehrt proportional zu der Lauf- oder Flugzeit des Lichtpulses (siehe 1). Auch die Anzahl freigesetzter Fotoelektronen ist dementsprechend wenigstens annährend umgekehrt proportional zu der Lauf- oder Flugzeit des Lichtpulses.
  • Mit einer Zeitverzögerung Δ = t0+tA (im Beispiel wieder 30ns) - also direkt im Anschluss an das Ende des ersten Aktivierungszeitraums tA - wird der Strahlungssensor B aktiviert. Der Strahlungssensor B ist für einen zweiten Aktivierungszeitraum tB aktiv (im Beispiel ebenfalls 30ns). Der Strahlungssensor B registriert ebenfalls nur einen Teil des reflektierten Lichtpulses, welcher der Zeitdifferenz Δ= tof+ti-tA (wenn ti=tA ist dies tof) entspricht, und somit proportional zu dieser Zeitdifferenz (der Lauf- oder Flugzeit des Lichtpulses) ist. Die entsprechende Ladungsmenge wird auf der Speicherkapazität B1 abgelegt.
  • Da die reflektierten Signale in Abhängigkeit vom Reflexionsgrad des reflektierenden Objekts und der Entfernung sehr schwach seien können, ist es notwendig einen Verstärkungsmechanismus vorzusehen. Dieser wird dadurch erreicht, dass die oben beschriebene Messung vielfach wiederholt wird und die jeweils registrierte Ladungsmenge auf der Speicherkapazität akkumuliert wird, bis eine ausreichende Signalhöhe erreicht wird.
  • Man kann dann die Entfernung wie folgt berechnen: E 1 = P ( R ) * kref * ( T tof )
    Figure DE102022110063A1_0001
    E 2 = P ( R ) * kref * ( tof + T T ) = P ( R ) * kref * tof
    Figure DE102022110063A1_0002
    mit:
    • E1; E2 - Energien je Abtastung für Empfänger A bzw. B
    • T = tA = tB - max. Flugzeit =30ns für einen max. Abstand von 4,5m (Eindeutigkeitsbereich)
    • kref - Reflexionskoeffizient des Targets,
    • tof - Flugzeit des Pulses,
    • P(R) - reflektierte Pulsleistung bei kref = 1,
  • Die Ladungsmengen sind den jeweiligen Energiewerten je Abtastvorgang proportional.
  • Vereinfacht könnte man für 200 Akkumulationen schreiben:
    mit A = n = 1 200 p E 1
    Figure DE102022110063A1_0003
    B = n = 1 200 p E 2
    Figure DE102022110063A1_0004
    • A; B - in der Speicherkapazität A bzw. B akkumulierte Ladungsmengen,
    • p - ist der Proportionalitätsfaktor, dessen konkrete Eigenschaften für diese Betrachtungen nicht relevant sind.
  • Durch Normierung (Division durch die Summe der in den beiden Kapazitäten akkumulierten Ladungsmengen) können vom Reflektionsgrad unabhängige, normierte Ladungsmengen Q1 und Q2 gebildet werden. Q 1 = A / ( A + B )   ( durch  Quontientenbildung Eliminierung der Abh a ¨ ngigkeit vom   Reflexionsgrad )
    Figure DE102022110063A1_0005
    Q 2 = B / ( A + B )
    Figure DE102022110063A1_0006
    können aus der normierten Ladungsmenge für jede Kapazität je ein Wert für die Flugzeit gebildet werden: tof 1 = ( 1 Q 1 ) T
    Figure DE102022110063A1_0007
    tof 2 = Q 2 T
    Figure DE102022110063A1_0008
  • Im fehlerfreien Idealfall sind die beiden so ermittelten Flugzeiten tof1 und tof2 gleich: tof 1 = tof 2. Eventuelle Messfehler können durch Mittelwertbildung vermindert werden: tof = 1 2 ( tof 1 + tof 2 ) ( Mittelwert )
    Figure DE102022110063A1_0009
  • Die gemessene Entfernung zwischen Strahlungssensor und reflektierendem Objekt ergibt sich zu: S = 1 2 ( c * tof )  c Lichtgeschwindigkeit
    Figure DE102022110063A1_0010
  • Eine erweitere Variante des beschriebenen Aufbaus besteht darin, dass jeder Strahlungssensor über zwei Speicherkapazitäten (Strahlungssensor A über Aa und Ab; Strahlungssensor B über Ba und Bb) verfügt. Aus dieser Eigenschaft ergeben sich erweiterte Funktionsmöglichkeiten.
  • Erste Möglichkeit:
  • Die Strahlungssensoren A und B werden identisch betrieben. Die Speicherkapazitäten Aa und Ab werden versetzt geschaltet - Ab übernimmt die Funktion von B (wie oben beschrieben). A a = n = 1 200 p E 1
    Figure DE102022110063A1_0011
    A b = n = 1 200 p E 2
    Figure DE102022110063A1_0012
  • Anstelle von zwei Fotoempfängern wird nur ein Fotoempfänger mit je zwei Speicherkapazitäten verwendet. Der Vorteil einer solchen Anordnung kann bei geeigneter Konstruktion in einer höheren Dichte der Empfänger (bessere Auflösung) liegen.
  • Zweite Möglichkeit:
  • Man setzt die zusätzlichen Speicherkapazitäten für eine 4-Phasenabtastung des Signals ein. Während in 3 eine Signalabtastung mit zwei Integrationszeiträumen beschrieben ist (2-Phasen) kann nun das Signal vierfach abgetastet werden, dabei werden die Abtastpunkte jeweils um ¼ der Periode des Signals versetzt, siehe 4. Für die Ausführungsvariante können auch periodische Pulsfolgen mit einer Periodendauer T als ausgesendetes Signal verwendet werden.
  • Über die durch die Flugzeit tof bedingte Phasenverschiebung φ des reflektierten Signals kann aus den in den Kapazitäten akkumulierten Ladungsmengen Aa, Ab, Ba und Bb wie folgt berechnet werden. φ = tan 1 A a A b B a B b
    Figure DE102022110063A1_0013
  • Anschließend kann aus der Phasenverschiebung φ die Entfernung S zwischen Strahlungssensor und reflektierendem Objekt berechnet werden: S = φ T 2 π
    Figure DE102022110063A1_0014

    T - ist in diesem Fall die Periode des periodischen Signals.
  • Die für die zweite Möglichkeit dargestellten Beziehungen gelten auch dann, wenn als periodisches Signal eine sinusförmige Form gewählt wird.
  • Die Verwendung eines sinusförmigen periodischen Signals ist die hier bevorzugte.
  • Die 3 und 4 illustrieren Abstands- oder Entfernungsmessung pro Bildpunkt (Pixel) auf Basis der Signallaufzeit bzw. Flugzeit (ToF: time of flight) ganz allgemein, ohne die Signallaufzeiten innerhalb der optischen Fasern der Lichtleiter 26.1 und 26.2 zu berücksichtigen.
  • Damit diese ggf. von optischer Faser zu optischer Faser eines Lichtleiters 26.1 oder 26.2 geringfügig voneinander abweichenden Signallaufzeiten innerhalb der optischen Fasern kompensiert werden können, ist die Sensoreinrichtung 10 und insbesondere deren Auswerteeinheit 24 vorzugsweise kalibriert. Konkret bedeutet dies, dass für die Pixelmatrix des Bildaufnehmers 14 eine Matrix von Laufzeitkorrekturwerten erstellt wird, so dass für jeden Strahlungssensor ein Laufzeitkorrekturwert vorliegt, der bei der Abstands- bzw. Entfernungsbestimmung durch die Auswerteeinheit 24 berücksichtigt werden kann, und zwar in Form eines festen Werts kkorr, der der gemessen Flugzeit tof hinzuaddiert oder von ihr abgezogen werden kann.
  • Das Bestimmen der Entfernung kann dann wie folgt erfolgen: E 1 = P ( R ) * kref * ( T tof + kkorr )
    Figure DE102022110063A1_0015
    E 2 = P ( R ) * kref * ( tof + T T ) = P ( R ) * kref * ( tof + kkorr )
    Figure DE102022110063A1_0016
    mit: E 1  ;E 2 Energien je Abtastung f u ¨ r Empf a ¨ nger A bzw .B
    Figure DE102022110063A1_0017
    T = tA tB max ,  Flugzeit = 30 ns f u ¨ r einen max . Abstand von  4,5 ( Eideutigkeits- bereich )
    Figure DE102022110063A1_0018
    • kref - Reflexionskoeffizient des Targets,
    • tof - Flugzeit des Pulses,
    • P(R) - reflektierte Pulsleistung bei kref = 1, und
    • kkorr - Laufzeitkorrekturwert; kann positiv oder negativ sein.
  • Jeder Strahlungssensor 16 kann einen Active Pixel Sensor (APS) aufweisen. Ein Active Pixel Sensor weist typischerweise eine Photodiode und mehrere (Feldeffekt-) Transistoren auf. Auf die Photodiode fallendes Licht setzt in der Sperrschicht der Photodiode Ladungen frei, so dass dir (Sperr-) Spannung über der Diode infolge auftreffender Photonen abnimmt. Ein Active Pixel Sensor wird wie folgt betrieben: Zu Beginn des Aktivierungszeitraums wird die Spannung über der Photodiode mittels des Rücksetz-Transistors auf einen definierten Anfangswert gesetzt. Während des Aktivierungszeitraums wird die Sperrschichtkapazität der Photodiode durch den vom auftreffenden, reflektierten Lichtpuls bewirkten Photostrom entladen. Die Spannung über der Photodiode sinkt dabei proportional zur Intensität des reflektierten Lichtpulses und zur Dauer desjenigen Anteils des Lichtpulses, der in den Aktivierungszeitraum des Active Pixel Sensors fällt. Am Ende des Aktivierungszeitraums wird der Spannungswert der über die Photodiode abfallenden Spannung ausgelesen und einer analogen Nachverarbeitung oder sofort einem Analog-Digital-Wandler zugeführt. Dafür besitzt jedes Bildelement einen Verstärker-Transistor, der mittels des Auswahl-Transistors zumeist spaltenweise auf eine für alle Bildelemente einer Zeile gemeinsame Ausleseleitung geschaltet wird. Active Pixel Sensoren können in CMOS (Complementary Metal-Oxide-Semiconductor) Technik implementiert werden. Da Ladungen in der Sperrschicht der Photodiode auch z.B. durch thermische Prozesse freigesetzt werden können, kommt es typischerweise zu einem Signalrauschen, dass das eigentliche Photosignal überlagert.
  • Um das angesprochene Signalrauschen zu vermindern, ist es bekannt, die Spannung über der Photodiode nicht nur einmal zum Ende des Aktivierungszeitraums zu messen, sondern anschließend nach dem Zurücksetzen der Photodiode zum Widerherstellen der Sperrspannung (Dunkelspannung) noch einmal, um so ein Referenzsignal zu erhalten, mit dem Rauschsignalanteile zumindest teilweise kompensiert werden können.
  • Bildaufnehmer, die ein derartiges Correlated Dual Sampling verwirklichen weisen für jeden Strahlungssensor eine entsprechende Schaltung auf, die hier als CDS-Stufe bezeichnet wird. Die CDS-Stufe kann beispielsweise mit Hilfe von Operationsverstärkern realisiert sein.
  • Vorzugsweise weist jeder Strahlungssensor folgende Bestandteile auf:
    • - einen Active Pixel Sensor (hier auch als APS-Zelle bezeichnet)
    • - eine CDS-Stufe, die der APS-Zelle zugeordnet ist und
    • - eine Sample-und-Hold-Stufe zum Auslesen des Strahlungssensors.
  • Der Vorteil der erfindungsgemäßen Sensoreinrichtung besteht darin, dass alle elektrischen Komponenten in einem gemeinsamen Gehäuse 50 untergebracht werden können, dass auch entsprechend leicht zu kühlen ist. An dieses Gehäuse 50 müssen dann nur die lichtleitenden Optiken 26.1 und 26.2 angeschlossen werden. Dies ist in 5 beispielhaft abgebildet. Die in 5 abgebildete Ausführungsvariante entspricht in Ihrem Aufbau beispielsweise in etwa der in 1 dargestellten Variante, bei der sich der Sender 12 innerhalb des Gehäuses 50 befindet und die von dem Sender aus gesandten Lichtpulse über Beleuchtungsfasern innerhalb der Lichtleiter 26.1 und 16.2 zu deren freien Enden hingeleitet werden. Wie ebenfalls in den 1 und 2 angedeutet weist die Sensoreinrichtung 10 oder 10' vorzugsweise nur einen einzigen Bildaufnehmer 14 mit einer einzigen Empfängermatrix 18 auf. Das bedeutet, dass die nicht-leitenden Optiken 26.1 und 26.2 mit ihrem jeweiligen abbildenden Ende 30.1 und 30.2 zwei verschiedene Bereiche 32.1 und 32.2 der Empfängermatrix 18 beleuchten. Dies ist in den 6 und 7 schematisch dargestellt.
  • Hierbei ergeben sich verschiedene Varianten, die vom Rastermaß der Empfängermatrix 18 - also der Breite der Strahlungssensoren 16 - und den Durchmessern der optischen Fasern 36 abhängen. So ist es möglich, dass das Rastermaß der Empfängermatrix 18 sowie die seitlichen Ausdehnungen der Strahlungssensoren 16 größer sind, als die Durchmesser und damit die Querschnittsmaße der einzelnen Fasern 36. Dies ist beispielshaft in 8 dargestellt. In diesem Fall fällt das Licht mehrerer optischer Fasern 36 auf einen jeweiligen Strahlungssensor 16. Das Licht einzelner optischer Fasern 36 kann aber auch auf zwei nebeneinander liegende Strahlungssensoren 16 fallen.
  • Wenn der Durchmesser der optischen Fasern 36 und damit die Querschnittsfläche der optischen Fasern 36 wesentlich größer ist, als das Rastermaß der Empfängermatrix 18 und damit auch größer als die seitliche Ausdehnung der Strahlungssensoren 16 fällt das Licht einer jeweiligen optischen Faser 36 auf mehrere Strahlungssensoren 16. Auch hierbei ist es möglich, dass ein jeweiliger Strahlungssensor 16 nicht von zwei benachbarten optischen Fasern 36 empfängt. Dies ist in 9 abgebildet.
  • Das eingangs beschriebene Kalibrieren kann diejenigen Effekte kompensieren, die sich daraus ergeben, dass die Zuordnung von optischen Fasern 36 zu Strahlungssensoren 16 nicht genau 1:1 ist.
  • An den freien Enden der lichtleitenden Optiken 26.1 und 26.2 (Lichtleiter 26.1 und Lichtleiter 26.2) sind als abbildende Optiken 20 jeweils Objektive angebracht, die typischerweise mehrere Linsen aufweisen, um einen Erfassungsbereich auf die Eintrittsenden 42 der optischen Fasern 36 abzubilden. Dies ist beispielhaft in den 10a, 10b und 11 dargestellt. Gleichzeitig zeigt 10b, wie Licht aus Beleuchtungsfasern 40 am freien Ende der Lichtleiter 26.1 und 26.2 ausgekoppelt werden kann.
  • Bezugszeichenliste
  • 10
    Sensoreinrichtung
    12
    Sender
    14
    Bildaufnehmer
    16
    lichtempfindliche Sensoren, Strahlungssensoren
    18
    Empfängermatrix
    20
    abbildende Optik
    22
    Steuereinheit
    24
    Auswerteeinheit
    26.1, 26.2
    Lichtleiter
    28.1, 28.2
    aufnehmendes Ende
    30.1, 30.2
    abbildendes Ende
    32.1
    erster Bereich
    32.2
    zweiter Bereich
    34
    Faserbündel
    36
    optische Fasern
    38
    Faseroptik
    40
    Beleuchtungsfasern
    42
    Eintrittsende
    44
    Austrittsende
    46
    Speicher
    48
    Laserdiode
    50
    Gehäuse

Claims (10)

  1. Sensoreinrichtung (10) mit - mindestens einem Sender (12) zum Aussenden mindestens eines Lichtpulses, - einem Bildaufnehmer (14), der eine abbildende Optik (20) und wenigstens eine Empfängermatrix (18) mit einer Vielzahl lichtempfindlicher Sensoren (16) umfasst, wobei die abbildende Optik (20) ausgebildet ist, von innerhalb eines Erfassungsbereichs des Bildaufnehmers befindlichen Objekten reflektierte Anteile eines Lichtpulses auf die Empfängermatrix (18) abzubilden, - einer mit dem Bildaufnehmer (14) und dem Sender (12) verbundene Steuerungseinheit, die ausgebildet ist, das Aussenden eines Lichtpulses von dem Sender (12) auszulösen, und - einer Auswerteeinheit (24), die ausgebildet ist, für die verschiedenen lichtempfindlichen Sensoren (16) jeweils eine Signallaufzeit (ToF) zwischen dem Aussenden eines jeweiligen Lichtpulses und dem Erfassen eines reflektierten Anteils des Lichtpulses zu bestimmen, um auf Basis der Signallaufzeiten ein 3D-Bild zu generieren, dadurch gekennzeichnet, dass die abbildende Optik (20) zwei lichtleitende Optiken, insbesondere zwei Lichtleiter (26.1, 26.2) umfasst, die jeweils ein aufnehmendes Ende (28.1, 28.2) und ein abbildendes Ende (30.1, 30.2) haben und empfangene Lichtpulse von dem jeweiligen aufnehmenden Ende (28.1, 28.2) zu dem jeweiligen abbildenden Ende (30.1, 30.2) leiten, so dass aus dem jeweiligen abbildenden Ende (30.1, 30.2) austretendes Licht auf einen oder mehrere der lichtempfindlichen Sensoren (16) einer oder der Empfängermatrix (18) trifft und dass die Auswerteeinheit (24) ausgebildet ist, die jeweilige Signallaufzeit zwischen dem Aussenden eines Lichtpulses und dem Auftreffen eines jeweiligen reflektierten Anteils des Lichtpulses auf ein aufnehmendes Ende (28.1, 28.2) eines jeweiligen Lichtleiters (26.1, 26.2) zu bestimmen.
  2. Sensoreinheit (10) gemäß Anspruch 1, dadurch gekennzeichnet, dass jeder Lichtleiter (26.1, 26.2) ein von optischen Fasern (36) gebildetes Faserbündel (34) aufweist.
  3. Sensoreinrichtung (10) gemäß Anspruch 2, dadurch gekennzeichnet, dass die optischen Fasern (36) Monomode-Fasern sind.
  4. Sensoreinrichtung (10) gemäß Anspruch 2 oder 3, dadurch gekennzeichnet, dass die Faserbündel (34) Teil einer Faseroptik (38) sind und jeweils ein kohärentes inneres Faserbündel (34) zur Bildaufnahme und -übertragung bilden, wobei die Faseroptik (38) separate, äußere Beleuchtungsfasern (40) zum Leiten des auszusendenden Lichtpulses aufweist.
  5. Sensoreinrichtung (10) gemäß wenigstens einem der vorangehenden Ansprüche 1 bis 4, dadurch gekennzeichnet, dass der Sender (12) mindestens eine lichtabgebende Diode (48), insbesondere eine Laserdiode aufweist.
  6. Sensoreinrichtung (10) gemäß wenigstens einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass der Sender (12) zum Aussenden eines Infrarotlichtpulses als Lichtpuls ausgebildet ist.
  7. Sensoreinrichtung (10) gemäß wenigstens einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass der Sender (12) ausgebildet ist, einen Lichtpuls in eine oder mehrere Beleuchtungsfasern (48) des Lichtleiters (26.1, 26.2) einzuspeisen.
  8. Sensoreinrichtung (10) gemäß wenigstens einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass eine lichtabgebende Diode (48), insbesondere eine Laserdiode des Senders (12) neben oder zwischen den aufnehmenden Enden (28.1, 28.2) der Lichtleiter (26.1, 26.2) angeordnet ist, sodass der Lichtpuls unmittelbar, d.h. ohne zwischengeschaltete optische Fasern (36), im Erfassungsbereich des Bildaufnehmers (14) befindliche Objekte beleuchten kann.
  9. Sensoreinrichtung (10) gemäß wenigstens einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass die Auswerteeinheit (24) ausgebildet ist, beim Bestimmen der Signallaufzeiten Laufzeitkorrekturwerte einzubeziehen, die die Signallaufzeit für einen Lichtpuls zwischen dem aufnehmenden Ende (28.1, 28.2) des jeweiligen Lichtleiters (26.1, 26.2) und dem Auftreten des Lichtpulses auf dem mindestens einen lichtempfindlichen Sensor (16) der Empfängermatrix (18) widerspiegeln.
  10. Sensoreinrichtung (10) gemäß Anspruch 9, dadurch gekennzeichnet, dass die Sensoreinrichtung (10) kalibriert ist und einen Speicher (46) aufweist, der Kalibrierwerte enthält, welche Laufzeitkorrekturwerte umfassen die die Signallaufzeiten für einen Lichtpuls zwischen dem aufnehmenden Ende (28.1, 28.2) des jeweiligen Lichtleiters (26.1, 26.2) und dem Auftreten des Lichtpulses auf dem mindestens einen lichtempfindlichen Sensor (16) der Empfängermatrix (18) repräsentieren.
DE102022110063.4A 2022-04-26 2022-04-26 Sensoreinrichtung für eine Türraumüberwachung Pending DE102022110063A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102022110063.4A DE102022110063A1 (de) 2022-04-26 2022-04-26 Sensoreinrichtung für eine Türraumüberwachung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022110063.4A DE102022110063A1 (de) 2022-04-26 2022-04-26 Sensoreinrichtung für eine Türraumüberwachung

Publications (1)

Publication Number Publication Date
DE102022110063A1 true DE102022110063A1 (de) 2023-10-26

Family

ID=88238214

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022110063.4A Pending DE102022110063A1 (de) 2022-04-26 2022-04-26 Sensoreinrichtung für eine Türraumüberwachung

Country Status (1)

Country Link
DE (1) DE102022110063A1 (de)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200271761A1 (en) 2016-08-10 2020-08-27 James Thomas O'Keeffe Distributed lidar with fiber optics and a field of view combiner

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200271761A1 (en) 2016-08-10 2020-08-27 James Thomas O'Keeffe Distributed lidar with fiber optics and a field of view combiner

Similar Documents

Publication Publication Date Title
DE4006300C2 (de) Vorrichtung zur Bestimmung des Abstandes und der Richtung zu einem Objekt
DE60124647T2 (de) Vorrichtung und Verfahren zur Abstandsmessung
DE19757595C2 (de) Verfahren und Vorrichtung zur Aufnahme eines dreidimensionalen Abstandsbildes
EP0362562B1 (de) Spektrometer zur gleichzeitigen Intensitätsmessung in verschiedenen Spektralbereichen
DE3305739C2 (de)
DE102015205826B4 (de) Entfernungsmesssystem mit Lichtlaufzeitpixelzeile
DE112011101667T5 (de) Abtastender 3D-Bildgeber
DE102006029025A1 (de) Vorrichtung und Verfahren zur Abstandsbestimmung
EP2646802A1 (de) Detektion von regentropfen auf einer scheibe mittels einer kamera und beleuchtung
DE2920950A1 (de) Optische sensorvorrichtung
DE102009045323A1 (de) Optisches Entfernungsmessgerät mit Kalibrierungseinrichtung
DE2853978A1 (de) Entfernungsmesser
DE102015223674A1 (de) Lichtlaufzeitsensor für einen optischen Entfernungsmesser
DE102010038566A1 (de) Lichtlaufzeitkamera mit Funktionsüberwachung
WO2020070311A1 (de) Bildgebender sensor
EP2013642A1 (de) Vorrichtung und verfahren zur aufnahme von entfernungsbildern
DE102010043723A1 (de) Lichtlaufzeitkamerasystem
DE102022110063A1 (de) Sensoreinrichtung für eine Türraumüberwachung
DE102015115098A1 (de) Sensoreinrichtung zur optischen Erfassung von Betätigungsgesten
DE3009534A1 (de) Anordnung zur optoelektronischen entfernungsmessung
DE19946448B4 (de) Entfernungsmeßeinrichtung
DE102014204423B4 (de) Lichtlaufzeitkamerasystem
DE102013208804A1 (de) Lichtlaufzeitsensor mit zuschaltbarer Hintergrundlichtunterdrückung
WO2016150826A1 (de) Sensorvorrichtung
DE102015223675A1 (de) Lichtlaufzeitsensor für einen optischer Entfernungsmesser

Legal Events

Date Code Title Description
R163 Identified publications notified