DE102017129639A1 - 3D Sensorsystem mit einer von einem Raumwinkel abhängigen Szenenbeleuchtung - Google Patents

3D Sensorsystem mit einer von einem Raumwinkel abhängigen Szenenbeleuchtung Download PDF

Info

Publication number
DE102017129639A1
DE102017129639A1 DE102017129639.5A DE102017129639A DE102017129639A1 DE 102017129639 A1 DE102017129639 A1 DE 102017129639A1 DE 102017129639 A DE102017129639 A DE 102017129639A DE 102017129639 A1 DE102017129639 A1 DE 102017129639A1
Authority
DE
Germany
Prior art keywords
light
scene
illumination
sensor system
illumination light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102017129639.5A
Other languages
English (en)
Inventor
Urs Hunziker
Johannes Eckstein
Beat Wyss
Christian Seiler
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bircher Reglomat AG
Original Assignee
Bircher Reglomat AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bircher Reglomat AG filed Critical Bircher Reglomat AG
Priority to DE102017129639.5A priority Critical patent/DE102017129639A1/de
Priority to PCT/EP2018/084422 priority patent/WO2019115559A1/de
Priority to EP18826220.8A priority patent/EP3724677A1/de
Publication of DE102017129639A1 publication Critical patent/DE102017129639A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4912Receivers
    • G01S7/4918Controlling received signal intensity, gain or exposure of sensor
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • G01S7/4815Constructional features, e.g. arrangements of optical elements of transmitters alone using multiple transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • G01S7/4863Detector arrays, e.g. charge-transfer gates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4868Controlling received signal intensity or exposure of sensor
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4912Receivers
    • G01S7/4913Circuits for detection, sampling, integration or read-out
    • G01S7/4914Circuits for detection, sampling, integration or read-out of detector arrays, e.g. charge-transfer gates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/32Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4811Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
    • G01S7/4813Housing arrangements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/499Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using polarisation effects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Es wird beschrieben ein Sensorsystem (100) und ein Verfahren zum dreidimensionalen Erfassen einer Szene (190). Das Sensorsystem (100) weist auf (a) eine Beleuchtungseinrichtung (130) zum Beleuchten der Szene (190) mit Beleuchtungslicht (131); (b) eine Messeinrichtung (110) zum Empfangen von Messlicht (196), welches zumindest teilweise von zumindest einem in der Szene enthaltenen Objekt (195) zurückgestreutes Beleuchtungslicht (131) ist, und zum Messen von Distanzen zwischen dem Sensorsystem (100) und dem zumindest einen Objekt (195) basierend auf einer Lichtlaufzeit des Beleuchtungslichts (131) und des Messlichts (196); und (c) eine der Messeinrichtung (110) nachgeschaltete Datenverarbeitungseinrichtung (150) zum Ermitteln der dreidimensionalen Charakteristik der Szene (190) basierend auf den gemessenen Distanzen. Die Beleuchtungseinrichtung (130) ist derart konfiguriert, dass eine Beleuchtungsintensität des Beleuchtungslichts (131) von dem Raumwinkel des Strahlengangs des Beleuchtungslichts (131) abhängt, so dass ein distanzbasierter Intensitätsverlust des Beleuchtungslichts (131) und des Messlichts (196) zumindest teilweise kompensiert wird. Ferner werden verschiedene Verwendungen eines solchen Sensorsystems (100) beschrieben.

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung betrifft ein Sensorsystem sowie ein Verfahren zum dreidimensionalen Erfassen einer Szene basierend auf Laufzeitmessungen. Ferner betrifft die vorliegende Erfindung mehrere Verwendungen eines solchen Sensorsystems.
  • Hintergrund der Erfindung
  • Zum Öffnen und/oder Verschließen von Öffnungen werden häufig mittels Aktuatoren betriebene Verschließkörper verwendet, welche für Bedienpersonen die Handhabung des betreffenden Verschließkörpers erleichtern oder ohne jede Bedienaktion automatisch betrieben werden, wenn beispielsweise ein die Öffnung zu passierendes Objekt in den Bereich der Öffnung gelangt. Eine solche Öffnung kann beispielsweise ein Durchgang in einem Gebäude sein. Ein Verschließkörper kann beispielsweise eine Tür oder ein Tor sein.
  • Um eine hohe Betriebssicherheit von automatisch zu öffnenden und zu schließenden Verschließkörpern zu erreichen, ist es bekannt, den Bereich vor oder innerhalb einer mit einem Verschließkörper bedeckbaren Öffnung mittels eines optischen Sensorsystems zu erfassen. Damit kann zum einen sichergestellt werden, dass beim Verschießen der Öffnung nicht versehentlich ein Objekt, beispielsweise eine Person, von dem Verschließkörper eingeklemmt wird. Außerdem kann bei manchen Applikationen ein solches Sensorsystem ein automatisches Öffnen des Verschließkörpers bzw. der Öffnung veranlassen. In diesem Zusammenhang ist es auch bekannt, dass ein solches Sensorsystem bzw. eine einem solchen Sensorsystem nachgeschaltete Datenverarbeitungseinrichtung mittels bekannter Methoden der Bildverarbeitung eine Objekterkennung durchführt und die Öffnung nur dann freigibt, wenn sich ein zum Passieren der Öffnungen befugtes Objekt dem Bereich der (noch verschlossenen Öffnung) nähert. Eine solche Objekterkennung kann beispielsweise eine Gesichtserkennung sein.
  • Aus EP 2 453 252 B1 ist für den Anwendungsbereich der Überwachung von automatisch zu öffnenden Türen und/oder Toren ein 3D-Sensorsystem bekannt, welches auf dem Prinzip der Laufzeitmessung von Lichtstrahlen beruht, die von Beleuchtungsquellen ausgesandt und nach einer zumindest teilweisen Reflexion bzw. 180° Rückstreuung von einem Lichtempfänger detektiert werden. Solche Sensorsysteme werden allgemein als „Time-of-Flight“ (TOF) Sensorsysteme bezeichnet. TOF Sensorsysteme haben jedoch den Nachteil, dass mit zunehmendem Abstand d des zu erfassenden Objekts die Intensität des von einem Lichtempfänger des TOF Sensors zu erfassenden (zurückgestreuten) Messlichts in zweifacher Hinsicht geschwächt ist. Im Falle einer punktförmigen Beleuchtungslichtquelle ohne eine spezielle Fokussierung skaliert diese Schwächung des von den Beleuchtungsquellen ausgesandten Beleuchtungslichts mit 1/d^2, wobei d der Abstand zu der Beleuchtungslichtquelle ist. Gleiches gilt für das Messlicht, wenn man eine Stelle des Objekts, an welcher das Beleuchtungslicht isotrop gestreut wird, als Punktlichtquelle auffasst. Im Ergebnis führt dies in diesem Fall zu einer 1/d^4 Skalierung der Intensität des empfangenen Messlichts. Bei einer auf irgendeine Art und Weise realisierten Strahlformung, beispielsweise einer Fokussierung, des Beleuchtungslichts, des Messlichts und/oder bei einer nicht isotropen Streuung des Beleuchtungslichts mit einer bevorzugten Aussendung des Messlichts in Richtung des Lichtempfängers, ist die Intensitätsschwächung entsprechend geringer, trägt jedoch trotzdem zu einem signifikanten Verlust an Lichtleistung bei. Dies wiederum führt zu einer entsprechend schlechten Energieeffizienz eines TOF Sensorsystems.
  • Der vorliegenden Erfindung liegt die Aufgabe zugrunde eine aus energetischer Sicht effiziente und trotzdem zuverlässige dreidimensionale Erfassung einer Szene, welche auch relativ weit entfernte Objekte umfasst, zu ermöglichen.
  • Zusammenfassung der Erfindung
  • Diese Aufgabe wird gelöst durch die Gegenstände der unabhängigen Patentansprüche. Vorteilhafte Ausführungsformen der vorliegenden Erfindung sind in den abhängigen Ansprüchen beschrieben.
  • Gemäß einem ersten Aspekt der Erfindung wird ein Sensorsystem zum dreidimensionalen Erfassen einer Szene beschrieben. Das Sensorsystem weist auf (a) eine Beleuchtungseinrichtung zum Beleuchten der Szene mit Beleuchtungslicht; (b) eine Messeinrichtung (b1) zum Empfangen von Messlicht, welches zumindest teilweise von zumindest einem in der Szene enthaltenen Objekt zurückgestreutes Beleuchtungslicht ist, und (b2) zum Messen von Distanzen zwischen dem Sensorsystem und dem zumindest einen Objekt basierend auf einer Lichtlaufzeit des Beleuchtungslichts und des Messlichts; und (c) eine der Messeinrichtung nachgeschaltete Datenverarbeitungseinrichtung zum Ermitteln der dreidimensionalen Charakteristik der Szene basierend auf den gemessenen Distanzen. Erfindungsgemäß ist die Beleuchtungseinrichtung derart konfiguriert, dass eine Beleuchtungsintensität des Beleuchtungslichts von dem Raumwinkel des Strahlengangs des Beleuchtungslichts abhängt, so dass ein distanzbasierter Intensitätsverlust des Beleuchtungslichts und des Messlichts zumindest teilweise kompensiert wird.
  • Dem beschriebenen Sensorsystem, welches ein sog. Time Of Flight (TOF) Sensorsystem ist, liegt die Erkenntnis zugrunde, dass durch eine hinsichtlich der Intensität variable Ausleuchtung der zu erfassenden Szene eine optimale Beleuchtung erreicht werden kann, welche im Ergebnis dazu führt, dass von allen Teilbereichen der Szene empfangenes Messlicht hinsichtlich seiner Intensität zumindest annähernd gleich ist. Dadurch kann vermieden werden, dass es in einem Bild der erfassten Szene von dem Messlicht unterbelichtete und/oder überbelichtete Teilbereiche gibt. Die Charakteristik des Beleuchtungslichts kann damit so eingestellt werden, dass die Intensität stets gerade so hoch ist, wie es für eine zuverlässige Erfassung des dem jeweiligen Raumwinkelbereich zugeordneten Teilbereichs der Szene erforderlich ist. Dadurch wird für die Beleuchtung lediglich so viel Energie benötigt, wie es erforderlich ist, so dass sich das beschriebene Sensorsystem im Ergebnis durch eine gute Energieeffizienz auszeichnet.
  • Je nach Verwendung des beschriebenen Sensorsystems können Kriterien für ein zuverlässiges Erfassen über die Zeit oder mit dem Raumwinkel variieren. So kann eine besonders zuverlässige Erfassung in einem Bereich der Schließkante einer sich schließenden Schiebetüre erforderlich sein und durch eine geeignete raumwinkelabhängige Beleuchtungsintensität gewährleistet werden.
  • Unter dem Begriff „Beleuchtungslicht“ sind in diesem Dokument diejenigen elektromagnetischen Wellen zu verstehen, welche von einer Lichtquelle der Beleuchtungseinrichtung ausgesandt werden und auf das betreffende Objekt der Szene treffen. Das „Messlicht“ sind die von bzw. an dem Objekt zurückgestreuten elektromagnetischen Wellen, welche von der Messeinrichtung bzw. einem Lichtempfänger der Messeinrichtung empfangen und für die dreidimensionale Auswertung der Szene, zusammen mit den entsprechenden TOF Distanzinformationen, verwendet werden.
  • Unter dem Begriff „Szene“ kann insbesondere derjenige räumliche Bereich verstanden werden, welcher von dem Sensorsystem optisch erfasst wird. In der Szene befindliche Objekte werden durch eine geeignete Bildauswertung erkannt. Dazu kann von der Datenverarbeitungseinrichtung auf bekannte Methoden zur Bildauswertung und/oder Bildanalyse zurückgegriffen werden. Die Datenverarbeitungseinrichtung kann demzufolge ein spezieller Bildverarbeitungsprozessor sein und einen solchen aufweisen, der konfiguriert ist, bekannte Verfahren zur Bildauswertung und/oder Bildverarbeitung anzuwenden bzw. durchzuführen.
  • Unter dem Begriff „Objekt“ kann jede räumlich körperliche Struktur verstanden werden, welche eine Oberflächenbeschaffenheit aufweist, die zu einer zumindest teilweisen Reflexion bzw. Streuung von Beleuchtungslicht führt und damit durch das resultierende Messlicht für die Messeinrichtung sichtbar ist. Das Objekt kann ein Gegenstand wie beispielsweise ein Kraftfahrzeug oder ein Lebewesen wie beispielweise ein Mensch sein. Das Objekt kann ein in Bezug auf das Sensorsystem statisches oder ruhendes Objekt sein. Ferner kann das Objekt sich auch innerhalb der Szene bewegen, diese verlassen oder in diese eintreten. Durch eine wiederholte Szenenerfassung kann dann (durch einen Vergleich der mit verschiedenen Szenenerfassungen ermittelten verschiedenen Ortspositionen) die Bewegung (nach der Gesetzmäßigkeit Geschwindigkeit = Weg / Zeit) des Objekts bestimmt werden. Hierbei können je nach Anwendungsfall der Absolutwert der Geschwindigkeit und/oder der Bewegungsvektor, d.h. zusätzlich die Bewegungsrichtung, ermittelt werden.
  • Unter dem Begriff „Charakteristik einer Szene“ kann die Gesamtheit aller räumlichen Strukturen verstanden werden, welche von dem Sensorsystem erfasst werden. Dabei können von der Datenverarbeitungseinrichtung mittels einer Bildverarbeitung und/oder Bilderkennung manche Strukturen als relevant und andere Strukturen als weniger oder sogar irrelevant erkannt werden.
  • Unter dem Ausdruck „distanzbasierter Intensitätsverlust“ kann diejenige Reduzierung der Intensität von Beleuchtungslicht und Messlicht verstanden werden, welche durch eine Aufweitung des Querschnitts der Beleuchtungslichtstrahlen verursacht ist. Im Falle einer Punktlichtquelle ohne eine spezielle Fokussierung skaliert dieser Verlust mit 1/d^2, wobei d der Abstand zu der Punktlichtquelle ist. Gleiches gilt für das Messlicht, wenn man eine Stelle des Objekts, an welcher das Beleuchtungslicht isotrop gestreut wird, als Punktlichtquelle auffasst. Im Ergebnis führt dies zu einer 1/d^4 Skalierung des resultierenden Messsignals, welches durch die Intensität des empfangenen Messlichts gegeben ist. Bei einer auf irgendeine Art und Weise realisierten Strahlformung, beispielsweise einer Fokussierung, des Beleuchtungslichts, des Messlichts und/oder bei einer nicht isotropen Streuung des Beleuchtungslichts mit einer bevorzugten Aussendung des Messlichts in Richtung der Messeinrichtung, ist der „distanzbasierte Intensitätsverlust“ entsprechend geringer, stellt in der Praxis jedoch trotzdem einen signifikanten Verlust dar, welcher die Energieeffizienz eines TOF Sensors reduziert. Erfindungsgemäß werden diese Verluste durch eine geeignete raumwinkelabhänge Intensität des Beleuchtungslichts zumindest teilweise reduziert bzw. kompensiert.
  • Die Begriffe „optisch“ und/oder „Licht“ können sich auf elektromagnetische Wellen beziehen, die eine bestimmte Wellenlänge bzw. Frequenz oder ein bestimmtes Spektrum von Wellenlängen bzw. Frequenzen haben. Insbesondere können die zum Einsatz kommenden elektromagnetischen Wellen dem für das menschliche Auge sichtbaren Spektralbereich zugeordnet werden. Alternativ oder in Kombination können auch elektromagnetische Wellen verwendet werden, die dem ultravioletten (UV) oder dem infraroten (IR) Spektralbereich zugeordnet sind. Der IR Spektralbereich kann sich bis in den langwelligen IR Bereich mit Wellenlängen zwischen 3,5 µm bis 15 µm erstrecken, welche mittels des Lichtempfängers des Sensors erfasst werden können.
  • Es wird darauf hingewiesen, dass die erfindungsgemäße Kompensation des distanzbasierten Intensitätsverlustes mittels der raumwinkelabhängigen Intensitätsverteilung des Beleuchtungslichts nicht nur für TOF Sensorsysteme möglich ist, welche die ganze oder zumindest größere Teilbereiche der Szene gleichzeitig beleuchten. Die erfindungsgemäße Kompensation kann auch bei TOF Sensorsystemen gewinnbringend zum Einsatz kommen, welche die Szene sequenziell mit einem Beleuchtung Lichtstrahl, beispielsweise einem Laserstrahl, abtasten.
  • Gemäß einem Ausführungsbeispiel der Erfindung ist die Beleuchtungseinrichtung konfiguriert, das Beleuchtungslicht mit einer räumlichen Intensitätsverteilung bereitzustellen, welche einen Randlichtabfall zumindest annähernd kompensiert. Der Randlichtabfall ist insbesondere ein natürlicher Randlichtabfall, gemäß dem eine Helligkeit in einem Bild beim Abbilden eines gleichmäßig hellen Motivs durch ein Objektiv um den Faktor cos^4 gegenüber der Helligkeit in der Mitte des Bildes abnimmt.
  • Der natürliche Randlichtabfall, welcher durch das sog. cos^4 (Cosinus hoch 4) Gesetz beschrieben wird, hängt in bekannter Weise von der Brennweite des verwendeten Objektivs ab. Im Falle des beschriebenen TOF Sensorsystems kann ein solches Objektiv für eine Abbildung des Beleuchtungslichts auf die Szene und/oder für die Abbildung der Szene auf einen Lichtempfänger der Messeinrichtung verwendet werden. Im Falle der Verwendung von Objektiven und bevorzugt eines gemeinsamen Objektives sowohl für das (aus einer flächigen Lichtquelle ausgesandte) Beleuchtungslicht als auch für das (von der flächigen Szene gestreute) Messlicht würde ohne die beschriebene Kompensation der natürliche Randlichtabfall zweifach auftreten und der negative Einfluss des cos^4 Gesetzes wäre entsprechend stark. Daher trägt bei TOF Sensorsystem, bei denen sowohl das Beleuchtungslicht als auch das Messlicht durch ein Objektiv tritt, die hier beschriebene Kompensation des natürlichen Randlichtabfalls besonders stark zu einer Verbesserung der Lichtintensitätsverhältnisse bei.
  • Die Kompensation des natürlichen Randlichtabfalls durch eine geeignete raumwinkelabhängige Verteilung der Beleuchtungsintensität kann zumindest 30%, bevorzugt 50%, weiter bevorzugt 80% und noch weiter bevorzugt 90% oder sogar 95% betragen. Diese Prozentangaben beziehen sich (bei einer fest vorgegebenen Brennweite des verwendeten Objektives) auf das Verhältnis zwischen den Intensitäten am Rand der Szene (für das Beleuchtungslicht) bzw. am Rand des auf der Messeinrichtung abgebildeten Bildes der Szene (für das Messlicht), welche (a) mit der beschriebenen Kompensation und (b) ohne die beschriebene Kompensation des natürlichen Randabfalls auftreten. Dementsprechend würde eine 100% Kompensation eine vollständige Eliminierung des natürlichen Randlichtabfalls bedeuten. Dabei würde bei einer (fiktiven) Szene, die in allen Teilbereichen das Beleuchtungslicht gleich stark streut, die Helligkeit in einem Bild in allen Teilbereichen gleich sein, wobei das Bild die (vollständige) Abbildung der Szene auf einem Lichtempfänger der Messeinrichtung ist.
  • Gemäß einem weiteren Ausführungsbeispiel der Erfindung weist das Sensorsystem ferner auf eine mit der Beleuchtungseinrichtung gekoppelte Beleuchtungslicht-Steuereinrichtung, welche konfiguriert ist, die Beleuchtungseinrichtung derart anzusteuern, dass eine Charakteristik des Beleuchtungslichts, welche die Abhängigkeit der Beleuchtungsintensität des Beleuchtungslichts von dem Raumwinkel beschreibt, während eines Betriebes des Sensorsystems dynamisch veränderbar ist.
  • Durch eine dynamische Veränderbarkeit der Charakteristik des Beleuchtungslichts kann ein und dieselbe Szene bei unterschiedlichen Beleuchtungsbedingungen (nacheinander) mehrfach aufgenommen werden. Dadurch stehen der Datenverarbeitungseinrichtung unterschiedliche Datensätze von ein und derselben Szene zur Verfügung, sodass mittels einer geeigneten Methode der Bildanalyse (von der Datenverarbeitungseinrichtung) derjenige Datensatz für die Ermittlung der dreidimensionalen Charakteristik der Szene verwendet werden kann, welcher die Szene am genauesten wiedergibt. Dabei kann gegebenenfalls ein „a priori Wissen“ über die optischen und/oder geometrischen Eigenschaften von in der Szene befindlichen Objekten berücksichtigt werden.
  • Ferner kann eine optimale Beleuchtungscharakteristik auch nach dem Prinzip „Try-and-Error“ oder durch andere statistische Optimierungsprozeduren ermittelt werden. Dies kann dynamisch während eines reellen Betriebs des Sensorsystems oder im Rahmen einer Kalibrierung mittels einer Erkennung von geeigneten Referenzobjekten erfolgen.
  • Bei manchen Ausführungsformen können auch die bei unterschiedlichen Beleuchtungscharakteristiken aufgenommenen 3D Bilder der Szene gemeinsam verarbeitet werden, sodass für eine finale Ermittlung der 3D Charakteristik der Szene ein umfangreicher Datensatz zur Verfügung steht. Bei einer solchen gemeinsamen Verarbeitung können unterschiedliche Teilbereiche der Szene dadurch charakterisiert werden, dass für einen ersten Teilbereich ein bei einer ersten Beleuchtungscharakteristik aufgenommener erster Teil-Datensatz und für einen zweiten Teilbereich der bei einer zweiten Beleuchtungscharakteristik aufgenommene zweiter Teil-Datensatz für die Ermittlung der Gesamtcharakteristik der Szene verwendet werden. Selbstverständlich können für die Erfassung der Gesamtcharakteristik der Szene auch mehr als drei Datensätze herangezogen werden, welche jeweils einer unterschiedlichen Beleuchtung Lichtcharakteristik zugeordnet sind.
  • Gemäß einem weiteren Ausführungsbeispiel der Erfindung ist die Datenverarbeitungseinrichtung mit der Beleuchtungslicht-Steuereinrichtung gekoppelt und konfiguriert, die ermittelte dreidimensionale Charakteristik der Szene auszuwerten und basierend auf einem Ergebnis dieser Auswertung die Charakteristik des Beleuchtungslichts zu verändern.
  • Anschaulich ausgedrückt hängt die Art und Weise, wie die Szene für eine Szenenerfassung raumwinkelabhängig von der Beleuchtungseinrichtung beleuchtet wird, von Mess- und Auswertungsergebnissen ab, die aus einer vorherigen Szenenerfassung ermittelt worden sind. Die Charakteristik der Beleuchtung wird also dynamisch aufgrund von Messergebnissen einer vorherigen Szenenerfassung angepasst. Damit findet korrekt ausgedrückt nicht mehr lediglich eine Steuerung der Beleuchtungseinrichtung sondern vielmehr eine Regelung derselben statt. Dies erlaubt auf vorteilhafte Weise eine besonders genaue Adaption der Szenenbeleuchtung in Hinblick auf eine optimale Szenena uswertu ng.
  • Eine geeignete Steuerung der Beleuchtungseinrichtung kann von aktuellen Umgebungsbedingungen abhängen, welche sich in dem Ergebnis der Szenenauswertung widerspiegeln. Solche Umgebungsbedingungen können Wetterbedingungen wie beispielsweise das Vorhandensein von Regen, Schnee, Hagel, Nebel, Rauch, Schwebepartikeln, etc. in der Szene sein.
  • Gemäß einem weiteren Ausführungsbeispiel der Erfindung hängt das Ergebnis der Auswertung von dem optischen Streuverhalten von zumindest einem in der Szene enthaltenen Objekt ab. Dies hat den Vorteil, dass zusätzlich zu der vorstehend beschriebenen und erfindungsgemäßen distanzbasierten Kompensation auch noch ein gegebenenfalls vorhandenes unterschiedliches Streuverhalten und/oder Reflexionsverhalten von verschiedenen Objekten in der Szene berücksichtigt wird, sodass das Messlicht mit einer zumindest annähernd räumlich gleichmäßigen Intensitätsverteilung auf einen Lichtempfänger der Messeinrichtung auftrifft. Eine über die lichtsensitive Fläche des Lichtempfängers möglichst gleichmäßige Helligkeit begünstigt eine präzise Distanzmessung durch das beschriebene TOF Sensorsystem.
  • Es wird darauf hingewiesen, dass bei vielen Objekten das Streu-bzw. Reflexionsverhalten von der Wellenlänge bzw. der Frequenz des Beleuchtungslichts hängt. Eine Berücksichtigung einer solchen Frequenzabhängigkeit kann auf vorteilhafte Weise zu einer weiteren Verbesserung der Szenenbeleuchtung und der darauffolgenden Szenenauswertung beitragen.
  • Gemäß einem weiteren Ausführungsbeispiel der Erfindung ist die Beleuchtungseinrichtung konfiguriert, die Charakteristik des Beleuchtungslichts in Abhängigkeit von einem externen Steuersignal zu steuern.
  • Die Steuersignale können über einen entsprechenden Dateneingang des Sensorsystems, insbesondere einen Dateneingang der Beleuchtungslicht-Steuereinrichtung, empfangen werden. Zur Realisierung einer geeigneten Anpassung und/oder einer Regelung der Beleuchtungscharakteristik kann die Steuerung der Beleuchtungseinrichtung dann von der vorstehend beschriebenen Beleuchtungslicht-Steuereinheit des Sensorsystems vorgenommen werden. Eine Steuerung bzw. Anpassung der Beleuchtungscharakteristik kann also nicht (nur) von den im Rahmen der TOF Messung generierten Informationen bzw. den Ergebnissen der Szenenauswertung abhängen. Gemäß dem hier beschriebenen Ausführungsbeispiel erfolgt eine geeignete Anpassung der Beleuchtungscharakteristik von extern.
  • Externe Steuersignale können prinzipiell für alle Merkmale und oder Zustände indikativ sein, welche einen Einfluss auf das Rückstreuverhalten des Beleuchtungslichts haben. Ein solches Merkmal ist beispielsweise eine (farbliche) Veränderung eines zu erfassenden Objekts und/oder ein in die Szene neu eintretendes bzw. die Szene verlassendes Objekt, welches das Rückstreuverhalten zumindest teilweise beeinflusst.
  • Gemäß einem weiteren Ausführungsbeispiel der Erfindung ist die Charakteristik des Beleuchtungslichts zusätzlich zu der Raumwinkelabhängigkeit durch zumindest eines der folgenden Merkmale bestimmt: (a) Wellenlänge, (b) spektrale Intensitätsverteilung, (c) Polarisationsrichtung, und (d) Intensitätsverteilung für unterschiedliche Polarisationsrichtungen. Durch eine anwendungsspezifische Verwendung von einem dieser Merkmale oder durch eine geeignete Kombination von zumindest zwei dieser Merkmale können die zu erkennenden Objekte besonders gut beleuchtet und als Ergebnis mit besonders hoher Genauigkeit und Zuverlässigkeit erkannt werden.
  • Die Wellenlänge, Frequenz bzw. Farbe des Beleuchtungslichts kann durch eine geeignete Ansteuerung von spektral unterschiedlichen Leuchtelementen, insbesondere LEDs mit unterschiedlicher Farbe, variiert bzw. an die zu erwartende Charakteristik der Szene angepasst werden. Die Polarisationsrichtung des Beleuchtungslichts kann auf bekannte Weise beispielsweise durch die Verwendung von Polarisationsfiltern eingestellt werden.
  • Gemäß einem weiteren Ausführungsbeispiel der Erfindung weist die Beleuchtungseinrichtung auf (a) eine als Laser ausgebildete Beleuchtungslichtquelle zum räumlichen Abtasten der Szene mit einem ausgesandten Laserstrahl-Beleuchtungslicht, (b) eine zumindest annähernd punktförmige Beleuchtungslichtquelle, (c) eine Mehrzahl von einzelnen Beleuchtungslichtquellen, die insbesondere individuell ansteuerbar und jeweils einem bestimmten Raumwinkelbereich der Szene zugeordnet sind, und/oder (d) eine flächige Beleuchtungslichtquelle, insbesondere mit einer über die Fläche nicht homogenen Leuchtintensität.
  • Ein die Szene abtastender Laserstrahl kann in bekannter Weise über zwei drehbare Spiegel mit zueinander nicht parallelen und bevorzugt senkrecht zueinander orientierten Drehachsen auf die jeweils zu beleuchtende Stelle der Szene gelenkt werden. Für eine solche (dynamisch adaptive) Ablenkung können auch nicht mechanische optische Elemente wie beispielsweise Diffraktive Optische Elemente (DOEs) verwendet werden. Die Ablenkung kann insbesondere durch die vorstehend beschriebene Beleuchtungslicht-Steuereinrichtung gesteuert werden.
  • Die eine zumindest annähernd punktförmige Beleuchtungslichtquelle kann eine (ausreichend starke) Halbleiterdiode, beispielsweise eine Laser- oder Leuchtdiode sein. Um gezielt die Szene flächig zu beleuchten, können geeignete Strahlformungssysteme, insbesondere Linsensysteme verwendet werden. Um die beschriebene raumwinkelabhängig ungleichmäßige Beleuchtung der Szene zu realisieren, können geeignete optische Elemente zur Strahlablenkung, Strahlteilung und/oder Strahlzusammenführung verwendet werden. Auch DOEs können auf vorteilhafte Weise verwendet werden.
  • Die Mehrzahl von Beleuchtungslichtquellen, welche ebenfalls insbesondere Laser- oder Leuchtdioden sind, können (insbesondere individuell) von der vorstehend beschriebenen Beleuchtungslicht-Steuereinrichtung angesteuert werden. Dies erlaubt auf vorteilhafte Weise eine adaptiv gesteuerte oder sogar geregelte Einstellung der Charakteristik des Beleuchtungslichts.
  • Auch eine flächige Lichtquelle kann die Quelle für eine raumwinkelabhängig nicht homogene Intensitätsverteilung sein. Sofern es sich um eine räumlich homogen erleuchtete Fläche handelt, können geeignete optische Elemente zur Strahlablenkung, Strahlteilung, Strahlzusammenführung und/oder Strahlformung eingesetzt werden, um die beschriebene raumwinkelabhängig ungleichmäßige Beleuchtung der Szene zu realisieren.
  • Gemäß einem weiteren Ausführungsbeispiel der Erfindung weist die Beleuchtungseinrichtung zumindest ein diffraktives oder refraktives optisches Element auf, welches konfiguriert ist, die raumwinkelabhängige Intensitätsverteilung des Beleuchtungslichts mittels räumlichen Strukturierens des Beleuchtungslichts zu realisieren.
  • Unter dem Begriff Diffraktion (oder Beugung) wird in diesem Zusammenhang allgemein die räumliche Ablenkung einer elektromagnetischen Welle an strukturellen Hindernissen bezeichnet. Solche Hindernisse können sein eine Kante, ein Loch oder ein eindimensionales, ein zweidimensionales oder sogar ein dreidimensionales Gitter. Das diffraktive optische Element kann beispielsweise und bevorzugt ein DOE sein, welches auf vorteilhafte Weise eine dynamische Anpassung bzw. Adaptierung der Beleuchtungscharakteristik während des Betriebs des Sensorsystems erlaubt.
  • Unter dem Begriff Refraktion (oder Brechung) wird bezeichnet die Änderung der Ausbreitungsrichtung einer Welle aufgrund einer räumlichen Änderung ihrer Ausbreitungsgeschwindigkeit, die speziell für Lichtwellen durch den Brechungsindex n eines Mediums beschrieben wird.
  • Gemäß einem weiteren Ausführungsbeispiel der Erfindung ist die Beleuchtungseinrichtung konfiguriert, das Beleuchtungslicht mit einem von einer Kreisform abweichenden Strahlquerschnitt bereitzustellen. Dies hat den Vorteil, dass bei Szenen, welche „nicht rund“ sind, eine unzureichende Beleuchtung von Eckbereichen der Szene vermieden werden kann. Eine unzureichende Beleuchtung der Eckbereiche könnte zwar ggf. durch eine insgesamt erhöhte Intensität des Beleuchtungslichts verhindert werden, in diesem Fall würden jedoch die mittleren Bereiche der Szene überbelichtet, was zumindest aus energetischer Sicht sehr nachteilig wäre.
  • Bei vielen Ausführungsformen bzw. Anwendungen des Sensorsystems ist es vorteilhaft, wenn das Beleuchtungslicht einen rechteckigen Strahlquerschnitt hat. Bevorzugt ist der Strahlquerschnitt zur Erzielung einer möglichst homogegen Beleuchtung an die Form der zu erfassenden Szene angepasst. Eine geeignete Formgebung des Strahlquerschnitts kann nicht nur durch eine entsprechende Formung der Leuchtfläche der Beleuchtungseinrichtung realisiert werden, der Strahlquerschnitt kann auch durch optische Komponenten wie Spiegel und refraktive optische Elemente (z.B. Linsensystem) auf geeignete Weise angepasst werden. Auch Diffraktive Optische Elemente (DOE) können verwendet werden, welche optional sogar eine dynamische und/oder szenenabhängige Formung des Strahlquerschnitts ermöglichen. Darüber hinaus können auch Mikrospiegelarrays verwendet werden, die aus der sog. Digital Light Processing (DLP) Projektionstechnik bekannt sind. Auch mit sog. Mikro Elektro Mechanische Systeme (microelectromechanical systems, MEMS) Vorrichtungen lassen sich eine Vielzahl von optischen Elementen derart bewegen, dass es zu einer gewünschten raumwinkelabhängigen Beleuchtungsintensität kommt.
  • Gemäß einem weiteren Ausführungsbeispiel der Erfindung weist die Messeinrichtung auf einen Lichtempfänger mit einer Vielzahl von Pixeln zum Empfangen des Messlichts und eine mit dem Lichtempfänger gekoppelte Lichtempfänger-Steuereinrichtung, wobei die Lichtempfänger-Steuereinrichtung und der Lichtempfänger derart konfiguriert sind, dass in einem modifizierten Betrieb des Sensorsystems zumindest zwei Pixel der Vielzahl von Pixeln zu einem übergeordneten Pixel zusammengefasst sind.
  • Typischerweise werden zumindest einige der Vielzahl von Pixeln dahingehend zusammengefasst, dass jeweils eine gewisse Anzahl von Pixeln zu einem übergeordneten Pixel zusammengefasst wird. Die gewisse Anzahl kann dabei beispielsweise (bevorzugt) zwei, drei, (bevorzugt) vier, sechs, (bevorzugt) acht, oder (bevorzugt) neun sein. Selbstverständlich ist auch eine noch stärkere Zusammenfassung von Pixeln möglich.
  • Ein solches Zusammenfassen von Pixeln, welches auch als „Binning“ bezeichnet wird, hat die Wirkung, dass auf Kosten der räumlichen Auflösung die Anzahl an Photonen des Messlichts, die während einer Szenenerfassung von einem Pixel eingesammelt bzw. akkumuliert werden, entsprechend der Anzahl an zu einem übergeordneten Pixel zusammengefassten Pixeln erhöht wird. Dadurch verringert sich insbesondere bei schwachem Messlicht das sog. statistische Photonenrauschen, was die Szenenauswertegenauigkeit verbessert. Ein „Binning“ ist deshalb insbesondere bei einem schwachen Messlicht dann von Vorteil, wenn eine hohe räumliche Auflösung nicht erforderlich ist.
  • Es wird darauf hingewiesen, dass über die Fläche des Lichtempfängers ein Binning auch lokal in lediglich zumindest einem Teilbereich der aktiven Flächen des Lichtempfängers durchgeführt werden kann. Dies führt dann zwar zu einer inhomogenen räumlichen Auflösung, welche nicht unbedingt gewünscht ist. Der Nachteil einer solchen inhomogenen räumlichen Auflösung wird aber in vielen Anwendungsfällen durch die erhöhte Photonenakkumulation überkompensiert. Ein lokales „Binning“ kann zumindest bei einigen bekannten Lichtempfängern ohne besondere elektronische oder apparative Elemente einfach durch eine entsprechende Ansteuerung des Lichtempfängers erfolgen, welche Ansteuerung das „Binning“ und damit den Betriebsmodus des Sensorsystems bestimmt.
  • Bei bevorzugten Ausführungsformen wird ein lokales „Binning“ dahingehend durchgeführt, dass, von der Messeinrichtung gemessen und/oder von der Datenverarbeitungseinrichtung erlernt, genau diejenigen Bereiche des Lichtempfängers, welche bei zumindest einer vorherigen Szenenerfassung zu wenig Lichtenergie erhalten haben, durch eine geeignete Ansteuerung des Lichtempfängers durch die Lichtempfänger-Steuereinrichtung bei nachfolgenden Szenenerfassungen in geeigneter Weise zu übergeordneten Pixel zusammengefasst werden. Ein solches dynamisch gesteuertes oder geregeltes „Binning“ kann während eines üblichen Betriebs des Sensorsystems (erlernt) und/oder während der Konfiguration des Sensorsystems beispielsweise im Rahmen einer (Erst)Installation, einer Wartung, einer zyklischen bzw. automatischen Re-Konfiguration etc. durchgeführt werden.
  • Es wird ferner darauf hingewiesen, dass bei einer nicht quadratischen Anzahl an zu einem übergeordneten Pixel zusammengefassten einzelnen Pixeln die räumliche Auflösung des Lichtempfängers entlang unterschiedlicher Richtungen jedenfalls dann unterschiedlich ist, wenn die einzelnen Pixel eine quadratische Form haben. Dies kann bei manchen Anwendungsfällen in vorteilhafter Weise ausgenutzt werden. Ein solcher Anwendungsfall liegt beispielsweise dann vor, wenn eine Bewegung eines Objekts der Szene entlang einer vorbekannten Raumrichtung mit hoher Genauigkeit erfasst werden soll. In einem solchen Fall kann die Anzahl an Pixel, welche entlang einer Linie senkrecht zu dieser vorbekannten Raumrichtung (so wie sie auf dem Lichtempfänger abgebildet ist) angeordnet sind, größer sein als die Anzahl an Pixel, welche entlang einer dazu senkrechten Linie angeordnet sind. Dann ist die räumliche Auflösung entlang der Bewegungsrichtung größer als die räumliche Auflösung senkrecht zu der Bewegungsrichtung und das Bewegungsprofil eines solchen linear bewegten Objekts kann mit einer besonders hohen Genauigkeit auch bei einem vergleichsweise schwachen Messlicht ermittelt werden.
  • Es wird ferner darauf hingewiesen, dass das beschriebene Binning auch adaptiv als Reaktion auf zumindest eine zuvor erfasste (und ausgewertete) Szenencharakteristik (auf automatische Weise) aktiviert werden kann. Dies bedeutet, dass das „Binning“ von der Lichtempfänger-Steuereinrichtung nicht nur gesteuert sondern abhängig von den durch eine Szenenauswertung gewonnenen Ergebnissen geregelt wird. Dadurch wird eine besonders zuverlässige Szenenerfassung auch bei schwachem Messlicht ermöglicht, so dass das beschriebene Sensorsystem auch mit einem entsprechend schwachen Beleuchtungslicht und damit auf energieeffiziente Weise betrieben werden kann.
  • Gemäß einem weiteren Ausführungsbeispiel der Erfindung weist die Messeinrichtung auf einen Lichtempfänger oder den vorstehend genannten Lichtempfänger zum Empfangen des Messlichts und eine dem Lichtempfänger nachgeschaltete Messeinheit, welche konfiguriert ist die Lichtlaufzeit zu messen basierend auf (a) einer Messung der Zeitspanne zwischen einen Aussenden eines Pulses des Beleuchtungslichts und dem Empfang des zu dem Puls gehörigen Messlichts und/oder (b) einer Messung einer Phasenverschiebung zwischen einer zeitlichen Modulation des Beleuchtungslichts und einer zugehörigen Modulation des empfangenen Messlichts. Dies hat den Vorteil, dass das beschriebene Sensorsystem abhängig von dem jeweiligen Anwendungsfall auf eine geeignete Weise unter Ausnutzung eines jeweils geeigneten TOF Messprinzips realisiert werden kann. Bei manchen Ausführungsformen ist das Sensorsystem derart konfiguriert, dass flexibel bzw. bei Bedarf zwischen den beiden verschiedenen Messprinzipien „Pulsbetrieb“ und „Phasenmessung“ umgeschaltet werden kann.
  • Unabhängig von dem angewendeten Messprinzip weist der Lichtempfänger eine lichtsensitive Oberfläche auf, welche in eine Vielzahl von Pixel unterteilt ist. Mit bzw. auf jedem Pixel werden diejenigen Photonen des Messlichts akkumuliert, welche aus einem bestimmten Raumwinkelbereich bzw. dem zugehörigen Teilbereich der Szene stammen. Die Messeinheit wird dazu verwendet, für jeden Pixel die Laufzeit der zugehörigen Lichtstrahlen des Beleuchtungslichts und des Messlichts zu ermitteln.
  • Gemäß einem weiteren Ausführungsbeispiel der Erfindung weist das. Sensorsystem ferner auf eine Halterung, welche zumindest mit der Messeinrichtung mechanisch gekoppelt ist, wobei die Halterung derart ausgebildet ist, dass das Sensorsystem an einer in Bezug auf die zu erfassende Szene stationären Haltestruktur anbringbar ist.
  • Anschaulich ausgedrückt sorgt die Halterung dafür, dass das beschriebene Sensorsystem ein stationäres System sein kann, welches einen bestimmten räumlich festen Erfassungsbereich hat und damit immer die gleiche Szene überwacht. Durch einen Vergleich von verschiedenen zeitlich voneinander beabstandeten Erfassungen der von der Orientierung des Sensorsystems abhängigen Szene können im Rahmen einer Bildauswertung räumlich stationäre Objekte, die in der Szene vorhanden sind, erkannt und bei einer weiteren Bildauswertung in Hinblick auf Bewegungsprofile ausgeblendet werden. Dadurch kann Rechenleistung eingespart werden und die energetische Effizienz des beschriebenen Sensorsystems verbessert werden.
  • Die stationäre Haltestruktur kann direkt oder indirekt mechanisch gekoppelt sein mit einer Vorrichtung zum Steuern einer Bedeckungscharakteristik einer von dem Objekt zu passierenden Öffnung durch zumindest einen Verschließkörper. Bevorzugt weist diese Vorrichtung neben einer geeigneten Führung bzw. Lagerung des Verschließkörpers einen Aktuator zum Bewegen des Verschließkörpers auf, insbesondere zum Bewegen des Verschließkörpers zwischen einer geschlossenen Position und einer geöffneten Position (und umgekehrt).
  • Im Bereich der Gebäudesicherheit kann die Öffnung ein Eingang, beispielsweise für eine Person oder ein Fahrzeug sein. Der Verschließkörper kann eine Tür sein, beispielsweise eine Haustür bzw. ein Garagentor. Die stationäre Haltestruktur kann beispielsweise die stationäre Rahmenstruktur eines Eingangs sein, beispielsweise der Rahmen einer Tür.
  • Gemäß einem weiteren Ausführungsbeispiel der Erfindung ist die Datenverarbeitungseinrichtung ferner derart konfiguriert, dass eine Bedeckungscharakteristik einer von einem Objekt zu passierenden Öffnung durch zumindest einen Verschließkörper steuerbar ist. Dadurch kann die Öffnung, welche beispielsweise ein Eingang (bzw. ein Ausgang) eines Gebäudes ist, auf energetisch günstige Weise automatisch überwacht werden und durch eine geeignete Ansteuerung eines Aktuators kann der Verschließkörper automatisch zwischen einer geöffneten Position und einer geschlossenen Position bewegt werden. Dazu kann die Datenverarbeitungseinrichtung des beschriebenen Sensorsystems mit der Steuerung eines bekannten Steuersystems für einen Verschließkörper gekoppelt werden.
  • Gemäß einem weiteren Aspekt der Erfindung wird beschrieben ein Verfahren zum dreidimensionalen Erfassen einer Szene. Das beschriebene Verfahren weist auf (a) ein Beleuchten der Szene mit Beleuchtungslicht mittels einer Beleuchtungseinrichtung und mittels einer Messeinrichtung (b) ein Empfangen von Messlicht, welches zumindest teilweise von zumindest einem in der Szene enthaltenen Objekt zurückgestreutes Beleuchtungslicht ist; und (c) ein Messen von Distanzen zwischen dem Sensorsystem und dem zumindest einen Objekt basierend auf einer Lichtlaufzeit des Beleuchtungslichts und des Messlichts. Ferner weist das beschrieben Verfahren auf (d) ein Ermitteln der dreidimensionalen Charakteristik der Szene basierend auf den gemessenen Distanzen mittels einer der Messeinrichtung nachgeschalteten Datenverarbeitungseinrichtung. Bei diesem Ausführungsbeispiel ist die Beleuchtungseinrichtung derart konfiguriert, dass eine Beleuchtungsintensität des Beleuchtungslichts von dem Raumwinkel des Strahlengangs des Beleuchtungslichts abhängt, so dass ein distanzbasierter Intensitätsverlust des Beleuchtungslichts und des Messlichts zumindest teilweise kompensiert wird.
  • Auch dem beschriebenen Verfahren liegt die Erkenntnis zugrunde, dass durch eine geeignete raumwinkelabhängige Beleuchtungsintensität die Intensität des empfangenen Messlichts, welches von verschiedenen und bevorzugt von allen Teilbereichen der Szene empfangen wird, zumindest annähernd gleich ist. Die räumliche Charakteristik des Beleuchtungslichts kann dabei so eingestellt werden, dass die Intensität stets gerade so hoch ist, wie es für eine zuverlässige Erfassung des dem jeweiligen Raumwinkelbereich zugeordneten Teilbereichs der Szene erforderlich ist. Dadurch wird für die Beleuchtung lediglich so viel Energie wie erforderlich benötigt und eine energieeffiziente dreidimensionale Szenenerfassung auf der Basis von Time Of Flight (TOF) realisiert.
  • Gemäß einem verfahrensbezogenen Ausführungsbeispiel der Erfindung weist das Verfahren ferner auf (a) ein Erfassen eines in der Szene befindlichen Objekts; (b) ein Vergleichen des erfassten Objekts mit zumindest einem in einer Datenbank hinterlegten Vergleichsobjekt; und (c), wenn das Objekt innerhalb vorgegebener zulässiger Abweichungen mit einem Vergleichsobjekt übereinstimmt, ein Identifizieren des Objekts als ein für eine bestimmte Aktion zugelassenes Objekt.
  • Die zugelassene Aktion kann beispielsweise eine erlaubte Passage durch eine Öffnung in einem Gebäude sein, welche Öffnung vor der Identifizierung als zugelassenes Objekt durch einen Verschließkörper verschlossen ist und erst nach der erfolgreichen Identifizierung durch eine entsprechende Bewegung des Verschließkörpers geöffnet wird. Die zu identifizierenden Objekte können bevorzugt Personen und/oder Fahrzeuge sein. Eine erfolgreiche Identifizierung kann zur Steuerung bzw. zur Aktivierung eines Verschlussmechanismus für einen Verschließkörper vor einer Öffnung eines Gebäudes sein.
  • Gemäß einem weiteren Aspekt der Erfindung wird beschrieben eine Verwendung eines vorstehend beschriebenen Sensorsystems für ein Steuern einer Bedeckungscharakteristik einer von einem Objekt zu passierenden Öffnung durch zumindest einen Verschließkörper.
  • Der beschriebenen Verwendung liegt die Erkenntnis zugrunde, dass eine auf energetisch effiziente Weise vorgenommen Erfassung und Auswertung einer optischen Szene auf vorteilhafte Weise bei Durchgängen eingesetzt werden kann, welche von einem Verschließkörper verschlossen werden können. Dies gilt insbesondere für Durchgänge, welche eine Verschließ- bzw. eine Bedeckungscharakteristik aufweisen, die von dem beschriebenen Sensorsystem gesteuert oder zumindest mitgesteuert wird. Da solche Sensorsysteme üblicherweise durch die Verschlusssysteme für die Verschließkörper mit Energie versorgt werden, ist es besonders wichtig, mit einer vergleichsweise geringen Energiemenge auszukommen und trotzdem zu zuverlässigen TOF Szenenauswertungen zu kommen.
  • Durch die erfindungsgemäße Verwendung des vorstehend beschriebenen Sensorsystems können auf energetisch effiziente Weise auch größere Distanzen überwacht werden, welches naturgemäß zu einem früheren Erkennen einer Öffnungsanforderung des Verschlusskörpers führt, was insbesondere bei sich schnell bewegenden Objekten von großem Vorteil sein kann. Ferner kann die Szene mit einem breiteren Erfassungswinkel erfasst werden, was beispielswiese zu einem frühzeitiges Erkennen von sich quer zur Öffnung bewegenden Querverkehr und damit zu einem zuverlässigeres Erkennen von Objekten im Sicherheitsbereich des Verschlusssystems führen kann. Dadurch kann bei Querverkehr eine unnötige Öffnungsanforderung unterdrückt werden.
  • Gemäß einem weiteren Ausführungsbeispiel der Erfindung ist die Öffnung ein Eingang oder ein Ausgang, insbesondere ein Notausgang in einem Gebäude. Durch das Erkennen eines zwar vorhandenen, aber sich ggf. nicht bewegenden Objektes in einem Durchgangsbereich kann ein Eingang oder Ausgang überwacht, insbesondere ein blockierter Notausgang erkannt, und die entsprechende Information an ein angegliedertes System, beispielsweise an ein Überwachungssystem, übermittelt werden.
  • Gemäß einem weiteren Ausführungsbeispiel der Erfindung ist das Objekt eine Person oder ein Fahrzeug. In diesem Fall kann das Gebäude insbesondere ein Haus bzw. eine Garage sein.
  • Gemäß einem weiteren Aspekt der Erfindung wird beschrieben eine Verwendung eines vorstehend beschriebenen Sensorsystems für ein Erfassen und/oder Steuern von Verkehrsströmen von Objekten, welche sich durch eine Szene des Sensorsystems (hindurch) bewegen, wobei die Szene durch einen räumlichen Erfassungsbereich des Sensorsystems bestimmt ist.
  • Auch dieser beschriebenen Verwendung liegt die Erkenntnis zugrunde, dass es bei einer Verkehrserfassung und/oder Verkehrsstromlenkung auf eine energieeffiziente Sensorik ankommt, da diese Sensorik typischerweise ständig in Betrieb ist und darüber hinaus insbesondere bei größeren Verkehrsströmen typischerweise eine sehr hohe Anzahl derartiger Sensorsysteme im Einsatz sind. Die für den betreffenden Verkehrsstrom relevanten Objekte können beispielsweise Personen, Fahrzeuge, Produkte wie z.B. Pakete, Koffer, etc. sein. Da für derartige Anwendungen üblicherweise eine Mehrzahl oder gar eine Vielzahl von 3D Sensoren einsetzt werden, wirken sich hier Energieeinsparungen besonders positiv aus.
  • Es wird darauf hingewiesen, dass Ausführungsformen der Erfindung mit Bezug auf unterschiedliche Erfindungsgegenstände beschrieben wurden. Insbesondere sind einige Ausführungsformen der Erfindung mit Vorrichtungsansprüchen und andere Ausführungsformen der Erfindung mit Verfahrensansprüchen bzw. Verwendungsansprüchen beschrieben. Dem Fachmann wird jedoch bei der Lektüre dieser Anmeldung sofort klar werden, dass, sofern nicht explizit anders angegeben, zusätzlich zu einer Kombination von Merkmalen, die zu einem Typ von Erfindungsgegenstand gehören, auch eine beliebige Kombination von Merkmalen möglich ist, die zu unterschiedlichen Typen von Erfindungsgegenständen gehören.
  • Bevor an späterer Stelle und bezugnehmend auf die Zeichnung exemplarische Ausführungsbeispiele der Erfindung beschrieben werden, werden an dieser Stelle einige technische Überlegungen dargestellt, die im Zusammenhang mit der Erfindung stehen.
  • TOF-basierende Sensorsysteme können generell sowohl in Bezug auf das Beleuchtungslicht als auch in Bezug auf das Messlicht in zwei grundsätzlich unterschiedliche Klassen unterteilt werden, welche beliebig miteinander kombiniert werden können.
  • B1: Die erste Alternative (B1) für die Beleuchtung zeichnet sich dadurch aus, dass die Szene mittels eines einzelnen Beleuchtungslichtstrahls hoher Fokussierung und niedriger Divergenz (also hoher Kollimation) sequentiell abgetastet wird. Für jede Position des Beleuchtungslichtstrahls in der Szene wird eine Messung der Laufzeit des Beleuchtungslichts und des Messlichts vorgenommen. Das Abtasten kann unter Verwendung von beweglichen optischen Komponenten, insbesondere Spiegel, realisiert werden. Alternativ oder in Kombination kann für ein sequentielles Abtasten der Szene mit dem Beleuchtungslichtstrahl ein Festkörper verwendet werden, welcher ohne mechanisch bewegliche Teile auskommt und integrierte photonische Strukturen bzw. Schaltungen aufweist. Bei einer geeigneten Ansteuerung dieser Strukturen wird der Beleuchtungslichtstrahl dann auf die gewünschte Stelle der Szene gerichtet. Ein solcher Festkörper ist beispielsweise aus US 2015/293224 A1 bekannt.
  • B2: Die zweite Alternative (B2) für die Beleuchtung zeichnet sich dadurch aus, dass die gesamte Szene (auf einmal und flächig) beleuchtet wird. Bei Bedarf kann die Intensität des Beleuchtungslichts in ausgewählten Teilbereichen der Szene (punktuell) erhöht werden, um an diesen Stellen eine verbesserte 3D Objekterfassung zu ermöglichen. Eine solche räumlich ungleichmäßige Verteilung der Intensität des Beleuchtungslichts kann ohne bewegliche optische Komponenten beispielsweise mittels eines sog. Diffraktiven Optischen Elementes (DOE) erfolgen.
  • M1: Eine erste Alternative (M1) für die Messung basiert auf gepulsten Beleuchtungslichtstrahlen. Dabei wird die „Reisezeit“ eines Lichtimpulses auf der Empfängerseite für jeden Pixel innerhalb eines Zeitfensters bestimmt und daraus die Entfernung abgeleitet.
  • M2: Die zweite Alternative (M2) für die Messung basiert auf einer zeitlichen, bevorzugt sinusförmigen, Modulation des Beleuchtungslichts mit einer vorgegebenen Frequenz, wobei geeignete Werte für diese Frequenz von der zu erwartenden Laufzeit bzw. der maximalen Erfassungsdistanz abhängen. Auf der Seite des Lichtempfängers wird die Phasendifferenz für jeden Pixel gemessen und daraus die Distanzinformation abgeleitet.
  • Beide Messprinzipien M1 und M2 basieren auf einer Integration der Anzahl von Photonen bzw. der in dem Lichtempfänger generierten Photoelektronen, welche auf jedem zu messenden Pixel eintreffen. In diesem Zusammenhang ist es offensichtlich, dass ein stets vorhandenes Licht- bzw. Photonenrauschen von der Anzahl der in einem Pixel akkumulierten Photonen abhängt. Daher wird die aus der TOF Messung gewonnen Distanzinformation umso genauer, je höher die Anzahl an akkumulierten Photonen ist.
  • Weitere Vorteile und Merkmale der vorliegenden Erfindung ergeben sich aus der folgenden beispielhaften Beschreibung derzeit bevorzugter Ausführungsformen.
  • Figurenliste
    • 1 zeigt die Verwendung eines Sensorsystems zum Steuern einer Bedeckungscharakteristik einer Öffnung mittels als Schiebetüren ausgebildeten Verschließkörpern .
    • 2 zeigt die Verwendung eines Sensorsystems zum Erfassen eines Verkehrsflusses von auf einem Förderband transportierten Objekten.
    • Die 3a und 3b illustrieren ein Zusammenfassen von Einzelpixeln eines Lichtempfängers.
    • Die 4a bis 4c zeigen verschiedene Strahlquerschnitte eines Beleuchtungslichts zum Anpassen der Beleuchtung an die Form der zu erfassenden Szene.
  • Detaillierte Beschreibung
  • Es wird darauf hingewiesen, dass die nachfolgend beschriebenen Ausführungsformen lediglich eine beschränkte Auswahl an möglichen Ausführungsvarianten der Erfindung darstellen. Insbesondere ist es möglich, die Merkmale einzelner Ausführungsformen in geeigneter Weise miteinander zu kombinieren, so dass für den Fachmann mit den hier explizit dargestellten Ausführungsvarianten eine Vielzahl von verschiedenen Ausführungsformen als offensichtlich offenbart anzusehen sind.
  • Bevor in diesem Abschnitt die Figuren im Detail beschrieben werden, werden nachstehend einige Aspekte von einer Reihe von Ausführungsformen erläutert.
  • In Anbetracht der bei vielen Anwendungen von 3D Sensorsystemen großen Bedeutung eines energieeffizienten Betriebs lässt sich die auf den Lichtempfänger treffende optische Energie des Messlichts dadurch optimieren, dass je nach Ausprägung der Szene die Szene unterschiedlich (intensiv) beleuchtet wird.
  • Für die meisten Anwendungen von TOF Sensorsystemen ist die zu erfassende Szene jedoch quaderförmiger oder kubischer Natur. Bekannte TOF Sensoren haben aber typischerweise einen Erfassungsbereich, der für alle erfassten Raumwinkel zumindest annähernd eine gleiche Reichweite hat. Die (Außen)Grenze des Erfassungsbereiches ist daher ein Teil einer Kugelschale (bei der alle Punkte den gleichen Abstand zu dem TOF Sensorsystem haben).
  • Das in diesem Dokument beschriebene TOF Sensorsystem ist nun in der Lage, diese „Kugelschalenbegrenzung“ durch ein gezielte Erhöhung oder Reduzierung der Beleuchtungsintensität in ausgewählten Teilbereichen der Szene zumindest teilweise zu kompensieren. Durch eine Reduzierung der Beleuchtungsintensität im Zentrum der Szene und eine Erhöhung der Beleuchtungsintensität gegen den Rand der Szene und insbesondere zu den Ecken hin, kann dieser mit dem vorstehend erläuterten cos^4 Gesetz beschriebene nachteilige Effekt reduziert und die für die Beleuchtung eingesetzte Energie optimal ausgenutzt werden.
  • Ferner lassen sich bestimmte von der räumlich geometrischen Anordnung von Sensorsystem und zu erfassender Szene abhängige Teilbereiche der Szene pauschalisiert mit einer optimalen Beleuchtungsintensität „belichten“. So wird zum Beispiel ein TOF-Sensorsystem üblicherweise über der mittleren Höhe der zu beobachtenden Objekte (Menschen, Produkte, Fahrzeuge, usw.) montiert, damit bei einer Mehrzahl von Objekten eine unerwünschte Objektabschattung weniger problematisch ist. Dies bedeutet aber, dass in den meisten Fällen der obere Bereich der Szene größere Messdistanzen beinhaltet als der untere Bereich. Dieses Wissen um den Montageort des Sensorsystems in Bezug zu der erfassenden Szene kann zur weiteren Optimierung des Betriebs des beschriebenen Sensorsystems insbesondere in Hinblick auf die energetische Effizienz berücksichtigt werden, indem der obere Bereich der Szene entsprechend weniger stark beleuchtet bzw. „belichtet“ wird.
  • Apparativ lässt sich eine von der Geometrie der Szene abhängige Beleuchtung durch Steuern der abstrahlwinkelabhängigen Beleuchtungsintensität realisieren. Je nach Lichtquelle kann dabei eine unterschiedliche Strategie angewendet werden.
  • (1) Bei einer Lichtquelle, welche aus mehreren einzelnen Beleuchtungsintensität liefernden Elementen besteht, welche die gesamte Beleuchtungseinrichtung darstellen (z.b. ein Array von Laser- oder Leuchtdioden), wird einfach die Helligkeit eines einzelnen Elementes gegenüber den anderen Elementen variiert. Diese Variation kann sowohl konstruktiv im Aufbau (z.B. Laser- oder Leuchtdioden mit unterschiedlicher Intensität) als auch durch die Art der Ansteuerung (via variablem Strom pro Laser- oder Leuchtdiode durch eine geeignete Elektronik, beispielshaft durch ein Einmessen bei der (Erst)Installation eingestellt) eingestellt werden. Ferner ist auch eine dynamische Einstellung der einzelnen Laser- oder Leuchtdioden während des Betriebs möglich. Dabei werden einfach diejenigen Laser- oder Leuchtdioden, welche Bereichen der Szene zugeordnet sind, die wenig Messlicht liefern, entsprechend stärker bestromt. Dies eignet sich besonders gut für das o.g. Beleuchtungsprinzip B2 in Kombination mit dem o.g. Messprinzip M1 oder M2.
  • (2) Bei Beleuchtungseinrichtungen, welche mit einem Beleuchtungslichtstrahl sequentiell die ganze Szene abtasten (scannen), ist zu jedem Zeitpunkt der jeweilige momentane Raumwinkel des Beleuchtungslichtstrahls bekannt. Durch Variieren der Intensität dieses Beleuchtungslichtstrahls abhängig vom jeweiligen Raumwinkel kann so die Beleuchtungsintensität abhängig von der Szenengeometrie (und bei optionaler dynamischer „Ergebnisregelung“ auch abhängig von der Reflexions- bzw. Streulichtmenge) für jeden Raumwinkel die Beleuchtungsintensität gezielt gesteuert werden. So kann eine statische Szene eingemessen werden, wobei die zu jedem Raumwinkel passende Intensität an Beleuchtungslicht eingelernt wird.
  • Die vorstehend erläuterte und optionale dynamische Anpassung der Intensität an Beleuchtungslicht kann sowohl in Echtzeit als auch von „Frame zu Frame“ adaptiv erfolgen. Dabei wird für die Teile der Szene, von denen zu wenig Messlicht empfangen wird, unmittelbar die Intensität des entsprechenden Teil(Beleuchtungslichts) erhöht. Dies bedeutet, dass abhängig von den Ergebniswerten einer letzten Szenenerfassung für die nächste Szenenerfassung diejenigen Bereiche mit „Überbelichtung“ abgeschwächt beleuchtet und diejenigen mit „Unterbelichtung“ aufgehellt werden. Dieser Ansatz eignet sich besonders gut für das Beleuchtungsprinzip B1 in Kombination mit dem Messprinzip M1 oder M2.
  • Eine Ausführungsform der Erfindung erreicht eine Energieeinsparung mittels einer dynamischen Beleuchtungsenergieoptimierung, wobei Beleuchtungsenergien von unterschiedlichen Wellenlängen bzw. Frequenzen verwendet werden. Dabei können beispielsweise abhängig von der Farbe des Objekts die Wellenlängen, die zu den intensivsten Reflexionen bzw. Lichtstreuungen führen, mit einer geringeren Intensität ausgesendet werden. Im Gegensatz dazu können andere Wellenlängen bzw. andere Wellenlängenbereiche mit geringerer Reflexion bzw. Streuung in dem Wellenlängenspektrum mit einer höheren Intensität vorhanden sein. So kann beispielsweise ein rotes Objekt so primär mit einem rotem Lichtanteil beleuchtet werden und der grüne und der blaue Lichtanteil werden (für den betreffenden Raumwinkel) reduziert, bevorzugt auf zumindest annähernd eine Intensität von Null. Dasselbe Prinzip kann auch im Verhältnis zwischen sichtbarem Licht und infraroten (IR) Licht angewendet werden.
  • Die im Rahmen einer frequenz- bzw. wellenlängenvariablen Beleuchtung gewonnen Informationen betreffend Reflexions- bzw. Streueigenschaften mit zugehöriger Distanz und Raumwinkel können bei einer nachfolgenden Szenenauswertung von bewegten Objekten von großem Vorteil sein, weil dadurch einfacher Objekte erkannt und verfolgt werden können, da die funktionelle Zusammengehörigkeit von Raumpunkten über die Reflexions- bzw. Streueigenschaften zusätzlich gruppierend interpretiert werden können.
  • Das in diesem Dokument beschriebene Sensorsystem kann beispielsweise bei Durchgängen einsetzt werden, insbesondere bei Durchgängen, welche eine Verschlusscharakteristik aufweisen, die automatisch gesteuert wird (z.B. mittels Türen, Tore, Barrieren, Ampeln, etc.). Da die Sensorik für eine Durchgangssteuerung üblicherweise durch die vorhandenen Verschlusssysteme mit Energie versorgt wird, gilt es mit einer gegebenen Energiemenge möglichst viel sensorische Wirkung zu erzielen. Das in diesem Dokument beschriebene Sensorsystem erlaubt im Vergleich zu bekannten Sensorsystemen (i) eine Datenerfassung für größere Distanzen (früheres Erkennen einer Öffnungsanforderung, insbesondere bei schneller bewegenden Objekten), (ii) breitere Erfassungswinkel (z.B. frühzeitiges Erkennen und Verfolgen von Querverkehr) und/oder (iii) ein zuverlässigeres Erkennen von Objekten in einem Sicherheitsbereich des Verschlusssystems.
  • Bei manchen Ausführungsformen wird für den Lichtempfänger ein Empfangschip verwendet, dessen Pixel unterschiedliche Sensitivitäten haben. Dies kann z.B. durch Reduktion des Rauschens einzelner Pixel oder Zonen von Pixeln sein. Da das Rauschen häufig mit der Wärme des Sensors korreliert ist, kann z.B. mittels einer Wärmepumpe (z.B. ein Peltier-Element) für einen Teil des Empfangschips eine höhere Sensitivität erreicht werden. Je punktueller diese Temperaturveränderung auf dem Empfangschip erzeugt werden kann, desto höher kann die Energieeffizienz des Sensorsystems sein. So lässt sich z.B. in einer bestimmten Ausführungsform ein Temperaturgradient über den Empfangschip aufprägen, so dass das von einer weiter entfernten Zone der Szene kommende Messlicht auf eine kühlere Zone des Empfangschips gelangt.
  • In einer weiteren Ausführungsform, welche sich vor allem für das Beleuchtungsprinzip B2 eignet, wird eine (zusätzliche) räumliche Variation des Beleuchtungslichts durch DOE's erreicht. Bei DOE's im Zusammenhang mit Lasersystemen kann so die maximale Beleuchtungsenergie ausgenutzt werden, weil diejenigen Anteile der Beleuchtungslichtstrahlen, welche mit geringerer Intensität auf die Szene treffen sollen, nicht einfach durch eine Maske ausgeblendet werden sondern deren Intensität durch das DOE auf andere Bereiche der Szene umverteilt wird. So kann die Energie des Beleuchtungslichts nahezu vollständig ausgenutzt werden. Derselbe Effekt der Konzentration von Beleuchtungslicht in einem Teilbereich der Szene (wenn auch mit tieferer Effizienz) kann auch durch Mechanismen erreicht werden, wie sie für Musterprojektionen verwendet werden, die für 3D Sensoren erforderlich sind, welche auf dem bekannten Prinzip der strukturierten Beleuchtung bzw. der sog. Streifenprojektion beruhen. Die hier beschriebene räumliche Variation des Beleuchtungslichts kann auch mit zusätzlichen Linsensystemen, insbesondere Freiformlinsen zusätzlich optimiert werden. Anschaulich ausgedrückt sorgt die in diesem Dokument beschriebene raumwinkelabhängige Beleuchtungsintensität für eine szenenabhängige Ausleuchtung, welche zu einer gleichmäßigeren Verteilung der Intensität des aus den verschiedenen Teilen der Szene empfangenen Messlichts führt.
  • In einer weiteren Ausführungsform wird die zu erfassende Szene zunächst konventionell, insbesondere gemäß dem Beleuchtungsprinzip B2, beleuchtet. Nach einer Ermittlung der Distanzinformation der ganzen Szene werden in den folgenden Szenenerfassungen die „überbelichteten Regionen“ mit einer geringeren Beleuchtungsintensität beleuchtet. Insbesondere bei Sensorsystemen, welche zeitliche Veränderungen von Objekten in der Szene detektieren sollen, kann das Sensorsystem an der unteren Grenze der Messbarkeit betrieben werden, solange die Szene (noch) statisch ist. Wenn jedoch eine Veränderung in der Szene (grob) erkannt oder zumindest vermutet wird, dann kann sofort mit einer Erhöhung der Beleuchtungsintensität reagiert werden, so dass die Szene beziehungsweise die Szenenveränderungen dann mit einer hohen Genauigkeit erfasst und ausgewertet werden können. Dieser Mechanismus kann sowohl für IR Sensorsysteme als auch für Sensorsysteme verwendet werden, die mit sichtbarem Licht arbeiten.
  • In der folgenden auf die Figuren Bezug nehmenden detaillierten Beschreibung sind Merkmale bzw. Komponenten von unterschiedlichen Ausführungsformen, die mit den entsprechenden Merkmalen bzw. Komponenten von einer anderen Ausführungsform nach gleich oder zumindest funktionsgleich sind, mit den gleichen Bezugszeichen oder mit Bezugszeichen versehen, welche in den letzten beiden Ziffern identisch sind. Zur Vermeidung von unnötigen Wiederholungen werden bereits anhand einer vorher beschriebenen Ausführungsform erläuterte Merkmale bzw. Komponenten an späterer Stelle nicht mehr im Detail erläutert.
  • 1 zeigt die Verwendung eines Sensorsystems 100 zum Steuern einer Bedeckungscharakteristik einer Öffnung 184 abhängig von der Charakteristik einer von dem Sensorsystem 100 überwachten Szene 190. Gemäß dem hier dargestellten Ausführungsbeispiel ist die Öffnung 184 eine Eintrittsöffnung für Personen in ein Gebäude oder eine Garageneinfahrt für Kraftfahrzeuge. Die entsprechende Eingangsstruktur ist mit dem Bezugszeichen 180 versehen. Ein in der Szene befindliches Objekt 195 soll eine solche Person oder ein Kraftfahrzeug symbolisieren.
  • Die Eingangsstruktur 180 umfasst eine stationäre Haltestruktur 182, welche einen Rahmen sowie eine Führung für zwei als Schiebetüren ausgebildete Verschließkörper 186 darstellt. Die Schiebetüren 186 können jeweils mittels eines Motors 187 entlang der durch zwei dicke Doppelpfeile dargestellten Verschieberichtungen bewegt werden. Die Ansteuerung der Motoren 187 erfolgt, wie im Folgenden dargelegt, mittels des in diesem Dokument beschriebenen Sensorsystems 100.
  • Das Sensorsystem 100 weist auf eine TOF-Messeinrichtung 110, eine Datenverarbeitungseinrichtung 150 sowie eine Datenbank 160. Die TOF-Messeinrichtung 110 wiederum weist eine Beleuchtungseinrichtung 130 und einen Lichtempfänger 120 auf. Gemäß dem hier dargestellten Ausführungsbeispiel weist die TOF-Messeinrichtung 110 auf bzw. sind der TOF-Messeinrichtung 110 zugeordnet (i) eine Beleuchtungslicht-Steuereinrichtung 135 zum Steuern des Betriebs der Beleuchtungseinrichtung 130, (ii) eine dem Lichtempfänger 120 nachgeschaltete Messeinheit 125 zum Messen einer Lichtlaufzeit zwischen von der Beleuchtungseinrichtung 130 ausgesandten Beleuchtungslicht 131 und von dem Lichtempfänger 120 empfangenen Messlicht 196 und (iii) eine Lichtempfänger-Steuereinrichtung 140 zum Steuern des Betriebs bzw. zum Auswählen eines Betriebsmodus des Lichtempfängers 120.
  • In der TOF-Messeinrichtung 110 sind insbesondere alle optischen Komponenten des Sensorsystems 100 untergebracht. An einem Gehäuse der TOF-Messeinrichtung 110 ist eine Halterung 111 vorgesehen. Mittels dieser Halterung 111 ist zumindest die TOF-Messeinrichtung 110 an der stationären Haltestruktur 182 in mechanisch stabiler und räumlich fester Weise angebracht. Bevorzugt ist das ganze Sensorsystem 100 (im Gegensatz zu der Darstellung von 1) als ein Modul aufgebaut, welches innerhalb einer kompakten Bauweise neben der TOF-Messeinrichtung 110 auch noch die Datenverarbeitungseinrichtung 150 sowie die Datenbank 160 aufweist.
  • Gemäß dem hier dargestellten Ausführungsbeispiel weist die Lichtempfänger-Steuereinrichtung 140 eine Schnittstelle 142 auf, über welche ein externes Steuersignal 142a empfangen werden kann. Das externe Steuersignal kann von einem angegliederten System (nicht dargestellt), beispielsweise einem Überwachungssystem, stammen, welches den Betrieb der Sensorvorrichtung 100 abhängig von externen Parametern steuert. Ein solcher externer Parameter kann beispielsweise eine vorab bekannte optische Eigenschaft des Objektes 195 sein. Auch ein nachstehend anhand der 3a und 3b beschriebenes szenenabhängiges Zusammenfassen von Pixeln des Lichtempfängers 120 kann von dem Steuersignal 142a veranlasst bzw. gesteuert werden.
  • Über die Schnittstelle 142 übertragene Signalisierungsdaten können außerdem Informationen über die erfasste und ausgewertete Szene 190 enthalten. Eine solche Information kann beispielhaft die Information sein, dass ein Fluchtweg blockiert ist, dass ein zur Fahndung ausgeschriebenes Nummernschild erkannt wurde, dass ein Parkplatz illegal belegt wurde, dass sich ein verdächtiger Gegenstand in der überwachten Szene 190 befindet, etc. In diesem Fall erfolgt ein entsprechender Informationsfluss von der Sensorsystem 100 bzw. genauer von der Lichtempfänger-Steuereinrichtung 140 zu dem angegliederten System. Alternativ oder in Kombination können solche Signalisierungsdaten 152a auch von der Datenverarbeitungseinrichtung 150 über eine Schnittstelle 152 ausgegeben werden.
  • Ein an die Datenverarbeitungseinrichtung 150 über die Schnittstelle 152 übergebenes externes Steuersignal 152a kann auch dazu verwendet werden, den Betrieb der Datenverarbeitungseinrichtung 150 zumindest teilweise von externen Informationen abhängig zu machen. Insbesondere kann über das Steuersignal 152a ein „a priori Wissen“ über ein Objekt 195 für eine verbesserte Auswertung der erfassten Szene 190 und insbesondere für eine verbesserte Objekterkennung übermittelt werden.
  • Gemäß dem hier dargestellten Ausführungsbeispiel beleuchtet die Beleuchtungseinrichtung 130, welche beispielsweise ein Array von individuell ansteuerbaren Laser- oder Leuchtdioden sein kann, die Szene 190 und damit auch das in der Szene 190 befindliche Objekt 195 mit einem gepulsten und damit zeitlich modulierten Beleuchtungslicht 131. Die Beleuchtungslicht-Steuereinrichtung 135 ist konfiguriert, die Beleuchtungseinrichtung 130 derart anzusteuern, dass eine Charakteristik des Beleuchtungslichts 131, welche die Abhängigkeit der Beleuchtungsintensität des Beleuchtungslichts 131 von dem Raumwinkel beschreibt (in dem das Beleuchtungslicht 131 auf die Szene 190 trifft), während eines Betriebes des Sensorsystems 100 dynamisch veränderbar ist. Alternativ oder in Kombination kann die Beleuchtungslicht-Steuereinrichtung 135 auch dafür sorgen, dass die Charakteristik des Beleuchtungslichts 131 einen natürlichen Randlichtabfall zumindest annähernd kompensiert, gemäß dem eine Helligkeit in einem Bild beim Abbilden eines gleichmäßig hellen Motivs durch ein aus Gründen der Übersichtlichkeit nicht dargestellten Objektiv um den Faktor cos^4 gegenüber der Helligkeit in der Mitte des von dem Lichtempfänger aufgenommenen Bildes abnimmt.
  • Die raumwinkelabhängige Intensitätsverteilung des Beleuchtungslichts 131 ist in 1 durch unterschiedlich breite und gestrichelt dargestellte Pfeile illustriert.
  • Dabei steht ein breiter Pfeile für eine hohe Beleuchtungsintensität in den betreffenden Raumwinkelbereich (herein) und ein schmaler Pfeil soll eine vergleichsweise geringe Intensität der entsprechenden Beleuchtungslichtstrahlen verdeutlichen. Um eine möglichst gleichmäßige Verteilung der Intensität des zurückgestreuten Messlichts 196 (aus Gründen der Übersichtlichkeit sind in 1 lediglich zwei Messlichtstrahlen dargestellt) zu erreichen, werden Raumwinkel der Szene 190, welche einer größeren Messdistanz zugeordnet sind, stärker beleuchtet als Raumwinkel, welche einer geringeren Messdistanz zugeordnet sind.
  • Die Beleuchtungslicht-Steuereinrichtung 135 kann die Charakteristik des Beleuchtungslichts 131 abhängig von einem externen Steuersignal 137 bestimmen, welches über eine Schnittstelle 137 übergeben wird. Das Steuersignal 137a kann indikativ sein für die raumwinkelabhängige Beleuchtungsintensität und/oder für weitere Eigenschaften des Beleuchtungslichts 131, beispielsweise dessen (a) Wellenlänge, (b) spektrale Intensitätsverteilung, (c) Polarisationsrichtung, und (d) Intensitätsverteilung für unterschiedliche Polarisationsrichtungen. Diese weiteren Eigenschaften können dabei derart ausgewählt sein, dass sie zu einer möglichst zuverlässigen und genauen Objekterkennung beitragen. Auch hier kann ein „a priori Wissen“ über optische Eigenschaften des Objekts 195 berücksichtigt werden.
  • Der Lichtempfänger 120 der TOF-Messeinrichtung 110 empfängt von dem Objekt 195 zurückgestreutes Beleuchtungslicht 131. Dieses zurückgestreute Licht wird in diesem Dokument als Messlicht 196 bezeichnet. Die räumliche Erfassung der Szene 195 erfolgt auf der Basis der vorstehend im Detail erläuterten Prinzipien einer Laufzeitmessung, welche auch als Time Of Flight (TOF) Messung bezeichnet wird. Die entsprechenden TOF Daten werden an die Datenverarbeitungseinrichtung 150 übergeben. Dies kann direkt oder indirekt über die Lichtempfänger-Steuereinrichtung 140 erfolgen.
  • Es wird darauf hingewiesen, dass die Beleuchtungseinrichtung 130 neben den in 1 dargestellten Beleuchtungseinheiten auch noch andere Beleuchtungseinheiten aufweisen kann, welche die Szene 190 aus einem anderen Winkel beleuchten. Ebenfalls können die beiden Beleuchtungseinheiten auch außerhalb des Gehäuses der TOF-Messeinrichtung 110 angeordnet und damit von dem Lichtempfänger 120 weiter beabstandet sein. An den Prinzipien der durchgeführten TOF Messung ändert sich dadurch nichts.
  • Gemäß dem hier dargestellten Ausführungsbeispiel wird basierend auf diesen 3D Daten die erfasste optische Szene 190 mittels geeigneter Methoden der Bildauswertung ausgewertet. Dazu können mehrere Bilder, welche von der Szene 190 unter unterschiedlichen Beleuchtungsbedingungen bzw. unterschiedlichen Beleuchtungscharakteristika aufgenommen wurden, gemeinsam verwendet werden.
  • Zur Erfassung eines Bewegungsprofils des Objekts 195 können innerhalb gewisser zeitlicher Abstände jeweils 3D Bilder der Szene 190 aufgenommen werden. Damit ist die Datenverarbeitungseinrichtung 150 in der Lage, basierend auf entsprechenden Positionsverschiebungen des Objekts 195 nicht nur dessen Geschwindigkeit als Absolutwert sondern als Bewegungsvektor (mit einer Richtungsinformation) zu bestimmen. Eine Kenntnis der genauen Position und/oder des Bewegungsprofils des Objekts 195 kann dann in vorteilhafter Weise dazu verwendet werden, die beiden Motoren 187 in geeigneter Weise von der Datenverarbeitungseinrichtung 150 anzusteuern. Gemäß dem hier dargestellten Ausführungsbeispiel werden bei einer verschlossenen Öffnung 184 die Schiebetüren 186 lediglich dann geöffnet, wenn sich das Objekt 195 tatsächlich in Richtung der Öffnung 184 bewegt. Falls es sich bei dem Objekt 195 um ein Fahrzeug eines sogenannten Querverkehrs handelt, welches sich im Wesentlichen an der Öffnung 184 vorbei bewegt, dann wird der entsprechende Bewegungsvektor von der Datenverarbeitungseinrichtung 150 erkannt und es unterbleibt ein Öffnen der Schiebetüren 186.
  • Nach einem Passieren des Objekts 195 durch die Öffnung 184 kann diese zügig wieder geschlossen werden, um beispielsweise ein Passieren von weiteren Objekten zu verhindern. In diesem Zusammenhang ist es offensichtlich, dass nicht nur der Zeitpunkt, zu dem die Öffnung freigegeben werden muss, sondern auch der Zeitraum, für den die Öffnung 184 offengehalten werden muss, von der Geschwindigkeit des Objekts 195 abhängt, mit der sich dieses in Richtung auf die Öffnung 184 und durch die Öffnung 184 hindurch bewegt.
  • Gemäß dem hier dargestellten Ausführungsbeispiel ist das Sensorsystem 100 ferner in der Lage, eine Objekterkennung vorzunehmen. Dazu greift die Datenverarbeitungseinrichtung 150 auf einen in der Datenbank 160 abgelegten Datensatz von Referenzobjekten zu, welche ausgewählten Objekten entsprechen, die autorisiert sind, die Öffnung 184 zu passieren. Dies bedeutet, dass bei einer geeigneten Annäherung des Objekts 195 an den Eingang 184 die Schiebetüren 186 lediglich dann geöffnet werden, wenn das erkannte Objekt 195 zumindest annähernd mit einem der hinterlegten Referenzobjekten übereinstimmt. Dies bedeutet anschaulich, dass bei der hier beschriebenen Verwendung des Sensorsystems 100 die Bedeckungscharakteristik der Öffnung 184 nicht nur von dem Bewegungsprofil des Objekts 195 abhängt, sondern dass auch noch eine objektbasierte Zugangskontrolle stattfindet.
  • 2 zeigt eine weitere Verwendung bzw. einen weiteren Einsatz des Sensorsystems 100. Aus Gründen der Übersichtlichkeit ist in 2 lediglich die TOF-Messeinrichtung 110 des Sensorsystems 100 dargestellt.
  • Gemäß dem hier dargestellten Ausführungsbeispiel erfasst die TOF-Messeinrichtung 110 einen Verkehrsfluss von (verschiedenen) Objekten 295a, 295b, 295c, 295d und 295e, welche sich auf einem Förderband 298 befinden und entlang der durch einen Pfeil dargestellten Bewegungsrichtung durch eine Szene 290 hindurch bewegen. Eine zuverlässige Kenntnis der Anzahl und/oder der Art der Objekte 295a bis 295e kann im Bereich der Logistik für eine Steuerung des Verkehrsflusses verwendet werden. Lediglich ein Beispiel für eine solche Steuerung eines Verkehrsfluss ist die Steuerung des Gepäcktransportes in einem Flughafen. Dabei können auch Etiketten auf den betreffenden Objekten 295a - 295e die Art des jeweiligen Objektes bestimmen. Es wird jedoch darauf hingewiesen, dass der Einsatz in einem Flughafen lediglich ein Beispiel von einer Vielzahl von anderen Anwendungsmöglichkeiten auf dem Gebiet der Verkehrsteuerung ist.
  • Die 3a und 3b illustrieren ein Zusammenfassen von Einzelpixeln eines als ein Halbleiter- bzw. CCD Chip ausgebildeten Lichtempfängers 320a bzw. 320b. Der Lichtempfänger 320a weist eine Vielzahl von lichtsensitiven bzw. Photonen sammelnden Pixeln 322a auf. Gemäß dem hier dargestellten Ausführungsbeispiel sind die Pixel 322a der vollen räumlichen Auflösung des Lichtempfängers 320a zugeordnet, welche Auflösung durch die Halbleiter-Architektur des Chips 320a vorgegeben ist.
  • Bei dem Lichtempfänger 320b sind jeweils vier der lichtsensitiven Pixel (für eine volle Auflösung) zu einem übergeordneten Pixel 322b (für eine erhöhte Photonenakkumulation pro Pixel auf Kosten einer reduzierten räumlichen Auflösung) zusammengefasst. Anschaulich ausgedrückt sammelt ein Pixel 322b im Vergleich zu einem einzelnen Pixel 322a eine vierfache Menge an Licht. Ein solches Zusammenfassen (Englisch „Binning“) reduziert die erforderliche (Mindest)Intensität des erfassten Messlichts, welche zum Auswerten des entsprechenden Bildbereiches der Szene benötigt wird. Da die Intensität des Messlichts unmittelbar von der Intensität des Beleuchtungslichts abhängt, kann durch das „Binning“ die Intensität des Beleuchtungslichts reduziert und damit der Energieverbrauch des Sensorsystems verringert werden.
  • Das beschriebene „Binning“ kann auch dynamisch durch eine entsprechende Ansteuerung ein und desselben Lichtempfängers 320a bzw. 320b realisiert werden. Dabei wird der Lichtempfänger entweder in einem ersten Betriebsmodus (mit voller Auflösung) oder in einem zweiten Betriebsmodus (mit zusammengefassten Photonen sammelnden Pixeln) betrieben. Ein Umschalten zwischen verschiedenen Betriebsmodi kann von externen Steuersignalen (vgl. Bezugszeichen 142a in 1) gesteuert werden. Alternativ oder in Kombination kann ein solches Umschalten auch von dem Ergebnis einer Szenenauswertung abhängen, so dass der „Binning“ Betriebsmodus für eine nächste Szenenerfassung geregelt wird.
  • Es wird darauf hingewiesen, dass auch mehr als zwei unterschiedliche Betriebsmodi mit jeweils einer unterschiedlich starken Zusammenfassung von Pixeln zum Einsatz kommen können. Ferner ist es möglich, in unterschiedlichen Teilbereichen des Lichtempfängers jeweils eine unterschiedliche Anzahl von Einzelpixeln zu einem übergeordneten Pixel zusammenzufassen. Dann können einzelne Teilbereiche der Szene mit einer höheren räumlichen Auflösung (und einer geringeren Photonenakkumulation) und andere Teilbereich der Szene mit einer niedrigeren räumlichen Auflösung (und einer höheren Photonenakkumulation) erfasst werden. Das beschriebene lokale und unterschiedlich starke Zusammenfassen von Pixeln kann dynamisch bzw. adaptiv in genau den Teilbereichen durchgeführt werden kann, in denen sich gerade ein bestimmtes Objekt befindet.
  • Die 4a bis 4c zeigen verschiedene Strahlquerschnitte eines Beleuchtungslichts zum Anpassen der Beleuchtung an die Form der zu erfassenden Szene. Ein in 4a illustriertes erstes Beleuchtungslicht 431a hat einen im Wesentlichen kreisförmigen Strahlquerschnitt und eignet sich bevorzugt für „runde Szenen“. Für die meisten Anwendungsfälle, welche keine „runde Szene“ erfassen (und auswerten), eignet sich jedoch ein von einer Kreisform abweichender Strahlquerschnitt. In 4b ist ein Beleuchtungslicht 431b mit einem elliptischen Strahlquerschnitt dargestellt. 4c zeigt ein Beleuchtungslicht 431c mit einem rechteckigen Strahlquerschnitt. Wie vorstehend bereits erwähnt, kann der Strahlquerschnitt durch eine entsprechende Formgebung der Beleuchtungseinrichtung und/oder durch optische Komponenten wie Spiegel und refraktive optische Elemente (z.B. Linsensystem) auf geeignete Weise an die jeweils zu erfassende Szene angepasst werden. Auch Diffraktive Optische Elemente (DOE) können verwendet werden, welche optional sogar eine dynamische und/oder szenenabhängige Formung des Strahlquerschnitts ermöglichen.
  • Es wird angemerkt, dass der Begriff „aufweisen“ nicht andere Elemente ausschließt und dass das „ein“ nicht eine Mehrzahl ausschließt. Auch können Elemente, die in Zusammenhang mit unterschiedlichen Ausführungsbeispielen beschrieben sind, kombiniert werden. Es sollte auch angemerkt werden, dass Bezugszeichen in den Ansprüchen nicht als den Schutzbereich der Ansprüche beschränkend ausgelegt werden sollen.
  • Bezugszeichenliste
  • 100
    Sensorsystem
    110
    TOF Messeinrichtung
    111
    Halterung
    120
    Lichtempfänger
    125
    Messeinheit
    130
    Beleuchtungseinrichtung
    131
    Beleuchtungslicht
    135
    Beleuchtungslicht-Steuereinrichtung
    137
    Schnittstelle
    137a
    externes Steuersignal
    140
    Lichtempfänger-Steuereinrichtung
    142
    Schnittstelle
    142a
    externes Steuersignal
    150
    Datenverarbeitungseinrichtung
    152
    Schnittstelle
    152a
    externes Steuersignal
    160
    Datenbank
    180
    Eingangsstruktur
    182
    stationäre Haltestruktur
    184
    Öffnung / Eingang
    186
    Verschließkörper / Schiebetür
    187
    Motor
    190
    Szene
    195
    Objekt
    196
    Messlicht
    290
    Szene
    295a-e
    Objekte
    298
    Förderband
    320a/b
    Lichtempfänger / Sensorchip
    322a
    Pixel
    322b
    übergeordnetes Pixel / zusammengefasstes Pixel
    431a
    Beleuchtungslicht mit rundem Querschnitt
    431b
    Beleuchtungslicht mit elliptischen Querschnitt
    431c
    Beleuchtungslicht mit rechteckigem Querschnitt
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • EP 2453252 B1 [0004]
    • US 2015293224 A1 [0072]

Claims (20)

  1. Sensorsystem (100) zum dreidimensionalen Erfassen einer Szene (190), das Sensorsystem (100) aufweisend eine Beleuchtungseinrichtung (130) zum Beleuchten der Szene (190) mit Beleuchtungslicht (131); eine Messeinrichtung (110) zum Empfangen von Messlicht (196), welches zumindest teilweise von zumindest einem in der Szene enthaltenen Objekt (195) zurückgestreutes Beleuchtungslicht (131) ist, und zum Messen von Distanzen zwischen dem Sensorsystem (100) und dem zumindest einen Objekt (195) basierend auf einer Lichtlaufzeit des Beleuchtungslichts (131) und des Messlichts (196); und eine der Messeinrichtung (110) nachgeschaltete Datenverarbeitungseinrichtung (150) zum Ermitteln der dreidimensionalen Charakteristik der Szene (190) basierend auf den gemessenen Distanzen; wobei die Beleuchtungseinrichtung (130) derart konfiguriert ist, dass eine Beleuchtungsintensität des Beleuchtungslichts (131) von dem Raumwinkel des Strahlengangs des Beleuchtungslichts (131) abhängt, so dass ein distanzbasierter Intensitätsverlust des Beleuchtungslichts (131) und des Messlichts (196) zumindest teilweise kompensiert wird.
  2. Sensorsystem (100) gemäß dem vorangehenden Anspruch, wobei die Beleuchtungseinrichtung (130) konfiguriert ist, das Beleuchtungslicht (131) mit einer räumlichen Intensitätsverteilung bereitzustellen, welche einen Randlichtabfall zumindest annähernd kompensiert, insbesondere einen natürlichen Randlichtabfall gemäß dem eine Helligkeit in einem Bild beim Abbilden eines gleichmäßig hellen Motivs durch ein Objektiv um den Faktor cos^4 gegenüber der Helligkeit in der Mitte des Bildes abnimmt.
  3. Sensorsystem (100) gemäß einem der vorangehenden Ansprüche, ferner aufweisend eine mit der Beleuchtungseinrichtung (130) gekoppelte Beleuchtungslicht-Steuereinrichtung (135), welche konfiguriert ist, die Beleuchtungseinrichtung (130) derart anzusteuern, dass eine Charakteristik des Beleuchtungslichts (131), welche die Abhängigkeit der Beleuchtungsintensität des Beleuchtungslichts (131) von dem Raumwinkel beschreibt, während eines Betriebes des Sensorsystems (100) dynamisch veränderbar ist.
  4. Sensorsystem (100) gemäß dem vorangehenden Anspruch, wobei die Datenverarbeitungseinrichtung (150) mit der Beleuchtungslicht-Steuereinrichtung (135) gekoppelt ist und konfiguriert ist, die ermittelte dreidimensionale Charakteristik der Szene (190) auszuwerten und basierend auf einem Ergebnis dieser Auswertung die Charakteristik des Beleuchtungslichts (131) zu verändern.
  5. Sensorsystem (100) gemäß dem vorangehenden Anspruch, wobei das Ergebnis der Auswertung von dem optischen Streuverhalten von zumindest einem in der Szene (190) enthaltenen Objekt (195) abhängt.
  6. Sensorsystem (100) gemäß einem der drei vorangehenden Ansprüche, wobei die Beleuchtungseinrichtung (130) konfiguriert ist, die Charakteristik des Beleuchtungslichts in Abhängigkeit von einem externen Steuersignal (142a) zu steuern.
  7. Sensorsystem (100) gemäß einem der vier vorangehenden Ansprüche, wobei die Charakteristik des Beleuchtungslichts (131) zusätzlich zu der Raumwinkelabhängigkeit durch zumindest eines der folgenden Merkmale bestimmt ist: (a) Wellenlänge, (b) spektrale Intensitätsverteilung, (c) Polarisationsrichtung, und (d) Intensitätsverteilung für unterschiedliche Polarisationsrichtungen.
  8. Sensorsystem (100) gemäß einem der vorangehenden Ansprüche, wobei die Beleuchtungseinrichtung (130) aufweist (a) eine als Laser ausgebildete Beleuchtungslichtquelle zum räumlichen Abtasten der Szene mit einem ausgesandten Laserstrahl-Beleuchtungslicht, (b) eine zumindest annähernd punktförmige Beleuchtungslichtquelle, (c) eine Mehrzahl von einzelnen Beleuchtungslichtquellen, die insbesondere individuell ansteuerbar und jeweils einem bestimmten Raumwinkelbereich der Szene zugeordnet sind, und/oder (d) eine flächige Beleuchtungslichtquelle, insbesondere mit einer über die Fläche nicht homogenen Leuchtintensität.
  9. Sensorsystem (100) gemäß dem vorangehenden Anspruch, wobei die Beleuchtungseinrichtung (130) aufweist zumindest ein diffraktives oder refraktives optisches Element, welches konfiguriert ist, die raumwinkelabhängige Intensitätsverteilung des Beleuchtungslichts mittels räumlichen Strukturierens des Beleuchtungslichts zu realisieren.
  10. Sensorsystem (100) gemäß einem der vorangehenden Ansprüche, wobei die Beleuchtungseinrichtung (130) konfiguriert ist, das Beleuchtungslicht (131) mit einem von einer Kreisform abweichenden Strahlquerschnitt (431b, 431c) bereitzustellen.
  11. Sensorsystem (100) gemäß einem der vorangehenden Ansprüche, wobei die Messeinrichtung (110) aufweist einen Lichtempfänger (120) mit einer Vielzahl von Pixeln (322a) zum Empfangen des Messlichts (196) und eine mit dem Lichtempfänger (120) gekoppelte Lichtempfänger-Steuereinrichtung (140), wobei die Lichtempfänger-Steuereinrichtung (140) und der Lichtempfänger (120) derart konfiguriert sind, dass in einem modifizierten Betrieb des Sensorsystems (100) zumindest zwei Pixel (322a) der Vielzahl von Pixeln (322a) zu einem übergeordneten Pixel (322b) zusammengefasst sind.
  12. Sensorsystem (100) gemäß einem der vorangehenden Ansprüche , wobei die Messeinrichtung (110) aufweist einen oder, sofern rückbezogen auf den vorangehenden Anspruch, den Lichtempfänger (120) zum Empfangen des Messlichts (196) und eine dem Lichtempfänger (120) nachgeschaltete Messeinheit (125), welche konfiguriert ist die Lichtlaufzeit zu messen basierend auf (a) einer Messung der Zeitspanne zwischen einen Aussenden eines Pulses des Beleuchtungslichts (131) und dem Empfang des zu dem Puls gehörigen Messlichts (196) und/oder (b) einer Messung einer Phasenverschiebung zwischen einer zeitlichen Modulation des Beleuchtungslichts (131) und einer zugehörigen zeitlichen Modulation des empfangenen Messlichts (196).
  13. Sensorsystem (100) gemäß einem der vorangehenden Ansprüche, ferner aufweisend eine Halterung (111), welche zumindest mit der Messeinrichtung (110) mechanisch gekoppelt ist, wobei die Halterung (111) derart ausgebildet ist, dass das Sensorsystem (100) an einer in Bezug auf die zu erfassende Szene (190) stationären Haltestruktur (182) anbringbar ist.
  14. Sensorsystem (100) gemäß einem der vorangehenden Ansprüche, wobei die Datenverarbeitungseinrichtung (150) ferner derart konfiguriert ist, dass eine Bedeckungscharakteristik einer von einem Objekt (195) zu passierenden Öffnung (184) durch zumindest einen Verschließkörper (186) steuerbar ist.
  15. Verfahren zum dreidimensionalen Erfassen einer Szene (190), das Verfahren aufweisend Beleuchten der Szene (190) mit Beleuchtungslicht (131) mittels einer Beleuchtungseinrichtung (130); mittels einer Messeinrichtung (110), Empfangen von Messlicht (196), welches zumindest teilweise von zumindest einem in der Szene (190) enthaltenen Objekt (195) zurückgestreutes Beleuchtungslicht (131) ist; und Messen von Distanzen zwischen dem Sensorsystem (100) und dem zumindest einen Objekt (195) basierend auf einer Lichtlaufzeit des Beleuchtungslichts (131) und des Messlichts (196); und Ermitteln der dreidimensionalen Charakteristik der Szene (190) basierend auf den gemessenen Distanzen mittels einer der Messeinrichtung (110) nachgeschalteten Datenverarbeitungseinrichtung (150); wobei die Beleuchtungseinrichtung (130) derart konfiguriert ist, dass eine Beleuchtungsintensität des Beleuchtungslichts (131) von dem Raumwinkel des Strahlengangs des Beleuchtungslichts (131) abhängt, so dass ein distanzbasierter Intensitätsverlust des Beleuchtungslichts (131) und des Messlichts (196) zumindest teilweise kompensiert wird.
  16. Verfahren gemäß dem vorangehenden Anspruch, ferner aufweisend Erfassen eines in der Szene (190) befindlichen Objekts (195); Vergleichen des erfassten Objekts (195) mit zumindest einem in einer Datenbank (160) hinterlegten Vergleichsobjekt; und, wenn das Objekt (195) innerhalb vorgegebener zulässiger Abweichungen mit einem Vergleichsobjekt übereinstimmt, Identifizieren des Objekts (195) als ein für eine bestimmte Aktion zugelassenes Objekt (195).
  17. Verwendung eines Sensorsystems (100) gemäß einem der vorangehenden Ansprüche 1 bis 14 für ein Steuern einer Bedeckungscharakteristik einer von einem Objekt (195) zu passierenden Öffnung (184) durch zumindest einen Verschließkörper (186).
  18. Verwendung gemäß dem vorangehenden Anspruch, wobei die Öffnung (184) ein Eingang oder ein Ausgang ist, insbesondere ein Notausgang in einem Gebäude.
  19. Verwendung gemäß einem der beiden vorangehenden Ansprüche, wobei das Objekt (195) eine Person oder ein Fahrzeug ist.
  20. Verwendung eines Sensorsystems (100) gemäß einem der vorangehenden Ansprüche 1 bis 14 für ein Erfassen und/oder Steuern von Verkehrsströmen von Objekten (295a-295e), welche sich durch eine Szene (290) des Sensorsystems (100) bewegen, wobei die Szene (190) durch einen räumlichen Erfassungsbereich des Sensorsystems (100) bestimmt ist.
DE102017129639.5A 2017-12-12 2017-12-12 3D Sensorsystem mit einer von einem Raumwinkel abhängigen Szenenbeleuchtung Withdrawn DE102017129639A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102017129639.5A DE102017129639A1 (de) 2017-12-12 2017-12-12 3D Sensorsystem mit einer von einem Raumwinkel abhängigen Szenenbeleuchtung
PCT/EP2018/084422 WO2019115559A1 (de) 2017-12-12 2018-12-11 3d sensorsystem mit einer von einem raumwinkel abhängigen szenenbeleuchtung
EP18826220.8A EP3724677A1 (de) 2017-12-12 2018-12-11 3d sensorsystem mit einer von einem raumwinkel abhängigen szenenbeleuchtung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102017129639.5A DE102017129639A1 (de) 2017-12-12 2017-12-12 3D Sensorsystem mit einer von einem Raumwinkel abhängigen Szenenbeleuchtung

Publications (1)

Publication Number Publication Date
DE102017129639A1 true DE102017129639A1 (de) 2019-06-13

Family

ID=64899260

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017129639.5A Withdrawn DE102017129639A1 (de) 2017-12-12 2017-12-12 3D Sensorsystem mit einer von einem Raumwinkel abhängigen Szenenbeleuchtung

Country Status (3)

Country Link
EP (1) EP3724677A1 (de)
DE (1) DE102017129639A1 (de)
WO (1) WO2019115559A1 (de)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10351714A1 (de) * 2003-11-05 2005-06-16 Eads Astrium Gmbh Vorrichtung zur optischen Erfassung eines entfernten Objekts
US20080285010A1 (en) * 2007-05-16 2008-11-20 Omron Corporation Object detector
EP2453252A1 (de) 2010-11-15 2012-05-16 Cedes AG Energiespar-3D-sensor
EP2558977A1 (de) * 2010-04-15 2013-02-20 IEE International Electronics & Engineering S.A. Konfigurierbare zugangssteuerungssensorvorrichtung
US20130300838A1 (en) * 2010-12-23 2013-11-14 Fastree3D S.A. Methods and devices for generating a representation of a 3d scene at very high speed
DE202012010014U1 (de) * 2012-10-19 2014-01-20 Sick Ag Laserscanner
US20150293224A1 (en) 2013-05-09 2015-10-15 Quanergy Systems, Inc. Solid state optical phased array lidar and method of using same
DE102015220798A1 (de) * 2015-10-23 2017-04-27 Designa Verkehrsleittechnik Gmbh Zugangskontrollsystem für einen Lagerbereich sowie Verfahren zur Zugangskontrolle
WO2017114611A1 (de) * 2015-12-29 2017-07-06 Robert Bosch Gmbh Umlenkeinrichtung für einen lidarsensor
US20170328989A1 (en) * 2016-05-11 2017-11-16 Texas Instruments Incorporated Lidar scanning with expanded scan angle
DE102016122712B3 (de) * 2016-11-24 2017-11-23 Sick Ag Optoelektronischer Sensor und Verfahren zur Erfassung von Objektinformationen

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010033818A1 (de) * 2010-08-09 2012-02-09 Dorma Gmbh + Co. Kg Sensor
US9635231B2 (en) * 2014-12-22 2017-04-25 Google Inc. Time-of-flight camera system and method to improve measurement quality of weak field-of-view signal regions
DE102015115101A1 (de) * 2015-09-08 2017-03-09 Huf Hülsbeck & Fürst Gmbh & Co. Kg Sensorsystem einer Sensoreinrichtung eines Kraftfahrzeugs
TWI570387B (zh) * 2015-11-09 2017-02-11 財團法人工業技術研究院 影像測距系統、光源模組及影像感測模組
DE102016202181A1 (de) * 2016-02-12 2017-08-17 pmdtechnologies ag Beleuchtung für eine 3D-Kamera
US10641872B2 (en) * 2016-02-18 2020-05-05 Aeye, Inc. Ladar receiver with advanced optics

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10351714A1 (de) * 2003-11-05 2005-06-16 Eads Astrium Gmbh Vorrichtung zur optischen Erfassung eines entfernten Objekts
US20080285010A1 (en) * 2007-05-16 2008-11-20 Omron Corporation Object detector
EP2558977A1 (de) * 2010-04-15 2013-02-20 IEE International Electronics & Engineering S.A. Konfigurierbare zugangssteuerungssensorvorrichtung
EP2453252A1 (de) 2010-11-15 2012-05-16 Cedes AG Energiespar-3D-sensor
US20130300838A1 (en) * 2010-12-23 2013-11-14 Fastree3D S.A. Methods and devices for generating a representation of a 3d scene at very high speed
DE202012010014U1 (de) * 2012-10-19 2014-01-20 Sick Ag Laserscanner
US20150293224A1 (en) 2013-05-09 2015-10-15 Quanergy Systems, Inc. Solid state optical phased array lidar and method of using same
DE102015220798A1 (de) * 2015-10-23 2017-04-27 Designa Verkehrsleittechnik Gmbh Zugangskontrollsystem für einen Lagerbereich sowie Verfahren zur Zugangskontrolle
WO2017114611A1 (de) * 2015-12-29 2017-07-06 Robert Bosch Gmbh Umlenkeinrichtung für einen lidarsensor
US20170328989A1 (en) * 2016-05-11 2017-11-16 Texas Instruments Incorporated Lidar scanning with expanded scan angle
DE102016122712B3 (de) * 2016-11-24 2017-11-23 Sick Ag Optoelektronischer Sensor und Verfahren zur Erfassung von Objektinformationen

Also Published As

Publication number Publication date
EP3724677A1 (de) 2020-10-21
WO2019115559A1 (de) 2019-06-20

Similar Documents

Publication Publication Date Title
DE102018105301B4 (de) Kamera und Verfahren zur Erfassung von Bilddaten
DE112017001112T5 (de) Verfahren und Vorrichtung für eine aktiv gepulste 4D-Kamera zur Bildaufnahme und -analyse
EP3014569B1 (de) Inspektion der konturierten fläche des unterbodens eines kraftfahrzeugs
EP1159636A1 (de) Ortsauflösendes abstandsmesssystem
EP2453252B1 (de) Energiespar-3D-sensor
WO2010076066A1 (de) Kameraanordnung zur erfassung eines scheibenzustandes einer fahrzeugscheibe
DE102011088393A1 (de) Bestimmen einer Gesamtzahl an Personen in einem IR-Bild, das mittels eines IR-Bilderzeugungssystems gewonnen wird
DE102016200653A1 (de) Scheinwerfermodul, Scheinwerfer, Scheinwerfersystem und Betriebsverfahren für ein Scheinwerfermodul
WO2020229186A1 (de) 3D SENSORSYSTEM, BETREIBBAR IN VERSCHIEDENEN BETRIEBSMODI IN ABHÄNGIGKEIT EINES BETRIEBSZUSTANDES EINES VERSCHLIEßKÖRPERS
DE102013100521A1 (de) Sensoranordnung zur Erfassung von Bediengesten an Fahrzeugen
WO2014023307A1 (de) Detektion von regentropfen auf einer scheibe mittels einer kamera und beleuchtung
EP3696537B1 (de) Vorrichtung und verfahren zur schadenserkennung an einem fahrenden fahrzeug
EP2946226A1 (de) Universelle sensoranordnung zur erfassung von bediengesten an fahrzeugen
WO2017041915A1 (de) Sensorsystem einer sensoreinrichtung eines kraftfahrzeugs
EP3724676A1 (de) Sensorsystem zum dreidimensionalen erfassen einer szene mit verschiedenen photonenakkumulationen
WO2007036553A1 (de) Vorrichtung und verfahren zur aufnahme von entfernungsbildern
DE102014106854A1 (de) Bildgebendes System und Verfahren zum Überwachen eines Sichtfeldes
EP2562685B1 (de) Verfahren und Vorrichtung zur Klassifizierung eines sich in einem Vorfeld eines Fahrzeugs befindlichen Lichtobjekts
DE102017129641A1 (de) 3D Sensorsystem mit einer Freiformoptik
EP3724601B1 (de) Abstandsermittlung basierend auf verschiedenen tiefenschärfebereichen bei unterschiedlichen fokuseinstellungen eines objektivs
DE102017129639A1 (de) 3D Sensorsystem mit einer von einem Raumwinkel abhängigen Szenenbeleuchtung
DE102017129654A1 (de) 3D Szenenerfassung basierend auf Lichtlaufzeiten und einem charakteristischen Merkmal von erfassten elektromagnetischen Wellen
WO2020229190A1 (de) Identifizierung eines objekts basierend auf einer erkennung eines teils des objekts und auf beschreibungsdaten von einem referenzobjekt
WO2020229189A1 (de) Tof sensorsystem mit einer beleuchtungseinrichtung mit einem array von einzellichtquellen
EP1865755B1 (de) Vorrichtung zur Beleuchtungssteuerung mit Anwesenheits-Erfassung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee