DE102019112339A1 - Identifizierung eines Objekts basierend auf einer Erkennung eines Teils des Objekts und auf Beschreibungsdaten von einem Referenzobjekt - Google Patents

Identifizierung eines Objekts basierend auf einer Erkennung eines Teils des Objekts und auf Beschreibungsdaten von einem Referenzobjekt Download PDF

Info

Publication number
DE102019112339A1
DE102019112339A1 DE102019112339.9A DE102019112339A DE102019112339A1 DE 102019112339 A1 DE102019112339 A1 DE 102019112339A1 DE 102019112339 A DE102019112339 A DE 102019112339A DE 102019112339 A1 DE102019112339 A1 DE 102019112339A1
Authority
DE
Germany
Prior art keywords
light
scene
sensor system
area
data processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019112339.9A
Other languages
English (en)
Inventor
Heinz Macher
Urs Hunziker
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bircher Reglomat AG
Original Assignee
Bircher Reglomat AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bircher Reglomat AG filed Critical Bircher Reglomat AG
Priority to DE102019112339.9A priority Critical patent/DE102019112339A1/de
Priority to PCT/EP2020/061967 priority patent/WO2020229190A1/de
Publication of DE102019112339A1 publication Critical patent/DE102019112339A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • EFIXED CONSTRUCTIONS
    • E05LOCKS; KEYS; WINDOW OR DOOR FITTINGS; SAFES
    • E05FDEVICES FOR MOVING WINGS INTO OPEN OR CLOSED POSITION; CHECKS FOR WINGS; WING FITTINGS NOT OTHERWISE PROVIDED FOR, CONCERNED WITH THE FUNCTIONING OF THE WING
    • E05F15/00Power-operated mechanisms for wings
    • E05F15/70Power-operated mechanisms for wings with automatic actuation
    • E05F15/73Power-operated mechanisms for wings with automatic actuation responsive to movement or presence of persons or objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • EFIXED CONSTRUCTIONS
    • E05LOCKS; KEYS; WINDOW OR DOOR FITTINGS; SAFES
    • E05FDEVICES FOR MOVING WINGS INTO OPEN OR CLOSED POSITION; CHECKS FOR WINGS; WING FITTINGS NOT OTHERWISE PROVIDED FOR, CONCERNED WITH THE FUNCTIONING OF THE WING
    • E05F15/00Power-operated mechanisms for wings
    • E05F15/70Power-operated mechanisms for wings with automatic actuation
    • E05F15/73Power-operated mechanisms for wings with automatic actuation responsive to movement or presence of persons or objects
    • E05F2015/765Power-operated mechanisms for wings with automatic actuation responsive to movement or presence of persons or objects using optical sensors
    • EFIXED CONSTRUCTIONS
    • E05LOCKS; KEYS; WINDOW OR DOOR FITTINGS; SAFES
    • E05YINDEXING SCHEME ASSOCIATED WITH SUBCLASSES E05D AND E05F, RELATING TO CONSTRUCTION ELEMENTS, ELECTRIC CONTROL, POWER SUPPLY, POWER SIGNAL OR TRANSMISSION, USER INTERFACES, MOUNTING OR COUPLING, DETAILS, ACCESSORIES, AUXILIARY OPERATIONS NOT OTHERWISE PROVIDED FOR, APPLICATION THEREOF
    • E05Y2900/00Application of doors, windows, wings or fittings thereof
    • E05Y2900/10Application of doors, windows, wings or fittings thereof for buildings or parts thereof
    • E05Y2900/13Type of wing
    • E05Y2900/132Doors

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Beschrieben wird ein Sensorsystem (100) sowie ein Verfahren zum dreidimensionalen Erfassen einer Szene (190) und zum Erkennen von Objekten (195) in der dreidimensional erfassten Szene. Das Sensorsystem weist auf (a) eine Beleuchtungseinrichtung (130) zum Beleuchten der Szene mit Beleuchtungslicht; (b) eine Messeinrichtung (110) zum Empfangen von Messlicht (196), welches von einem Objekt zurückgestreutes Beleuchtungslicht (196) ist, und zum Messen von Distanzen basierend auf einer Lichtlaufzeit des Beleuchtungslichts und des Messlichts; (c) eine Datenverarbeitungseinrichtung (150) zum Ermitteln einer dreidimensionalen Charakteristik der Szene basierend auf den gemessenen Distanzen; und (e) einen Datenspeicher (160), in welchem zumindest eine Beschreibung von zumindest einem Referenzobjekt hinterlegt ist. Die Datenverarbeitungseinrichtung ist programmtechnisch eingerichtet (i) zum Erkennen zumindest eines Teilbereiches (295a-e) des Objekts; (ii) falls lediglich ein solcher Teilbereich erkannt wurde, zum Vergleichen des erkannten Teilbereiches mit der zumindest einen Beschreibung; und (iii) falls bei dem Vergleichen eine Übereinstimmung zwischen dem erkannten Teilbereich und einem Referenzteilbereich eines von dem zumindest einen Referenzobjekt festgestellt wird, zum Identifizieren des Objekts. Ferner wird eine Verwendung des Sensorsystems für ein Steuern einer Bedeckungscharakteristik einer von einem Objekt zu passierenden Öffnung (184) durch zumindest einen Verschließkörper (186) beschrieben.

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung betrifft das technische Gebiet der Objekterkennung mittels einer Erfassung dreidimensionaler Bilder und eine nachgeschalteten Bildauswertung.
  • Hintergrund der Erfindung
  • Zum Öffnen und/oder Verschließen von Öffnungen werden häufig mittels Aktuatoren betriebene Verschließkörper verwendet, welche für Bedienpersonen die Handhabung des betreffenden Verschließkörpers erleichtern oder ohne jede Bedienaktion automatisch betrieben werden, wenn beispielsweise ein die Öffnung zu passierendes Objekt in den Bereich der Öffnung gelangt. Eine solche Öffnung kann beispielsweise ein Durchgang in einem Gebäude sein. Ein Verschließkörper kann beispielsweise eine Tür sein.
  • Ein solcher Verschließkörper soll in der Regel nur dann zu einer Bewegung veranlasst werden, wenn in einem bestimmten Erfassungsbereich eines der Öffnung zugeordneten Sensorsystems ein bestimmtes Objekt bzw. ein bestimmter Typ von Objekt erkannt wird. Bei manchen Anwendungen soll beispielsweise eine Tür automatisch dann geöffnet werden, wenn sich ein Mensch dieser Tür nähert, falls sich ein Tier dieser Tür nähert, dann soll diese Tür verschlossen bleiben.
  • Aus EP 2 453 252 B1 ist für den Anwendungsbereich der Überwachung von automatisch zu öffnenden Türen ein 3D-Sensorsystem bekannt, welches auf dem Prinzip der Laufzeitmessung von Lichtstrahlen beruht, die von Beleuchtungsquellen ausgesandt und nach einer zumindest teilweisen Reflexion bzw. 180° Rückstreuung von einem Lichtempfänger detektiert werden. Solche Sensorsysteme werden allgemein als „Time-of-Flight“ (TOF) Sensorsysteme bezeichnet. TOF Sensorsysteme haben jedoch den Nachteil, dass mit zunehmendem Abstand d des zu erfassenden Objekts die Intensität des von einem Lichtempfänger des TOF Sensors zu erfassenden (zurückgestreuten) Messlichts in zweifacher Hinsicht geschwächt ist. Im Falle einer punktförmigen Beleuchtungslichtquelle ohne eine spezielle Fokussierung skaliert diese Schwächung des von den Beleuchtungsquellen ausgesandten Beleuchtungslichts mit 1/d^2, wobei d der Abstand zu der Beleuchtungslichtquelle ist. Gleiches gilt für das Messlicht, wenn man eine Stelle des Objekts, an welcher das Beleuchtungslicht isotrop gestreut wird, als Punktlichtquelle auffasst. Im Ergebnis führt dies in diesem Fall zu einer 1/d^4 Skalierung der Intensität des empfangenen Messlichts.
  • Aus energetischen Gründen können Beleuchtungsquellen für Sensorsysteme zur Überwachung von Türen nur eine begrenzte Intensität an Beleuchtungslicht bereitstellen. Dies führt insbesondere bei TOF 3D Sensorsystemen dazu, dass eine Objekterkennung häufig nicht ausreichend ist, um zu unterscheiden, ob ein bestimmter Typ von Objekt sich in dem Erfassungsbereich des Sensorsystems befindet.
  • Der vorliegenden Erfindung liegt die Aufgabe zugrunde, auf dem Gebiet der automatischen Überwachung von Öffnungen, die mittels zumindest eines Verschließkörpers verschließbar sind, eine zuverlässige Objektidentifizierung zu ermöglichen.
  • Zusammenfassung der Erfindung
  • Diese Aufgabe wird gelöst durch die Gegenstände der unabhängigen Patentansprüche. Vorteilhafte Ausführungsformen der vorliegenden Erfindung sind in den abhängigen Ansprüchen beschrieben.
  • Gemäß einem ersten Aspekt der Erfindung wird beschrieben ein Sensorsystem zum dreidimensionalen Erfassen einer Szene und zum Erkennen bzw. Identifizieren von Objekten in der dreidimensional erfassten Szene. Das beschriebene Sensorsystem weist auf (a) eine Beleuchtungseinrichtung zum Beleuchten der Szene mit Beleuchtungslicht; (b) eine Messeinrichtung (b1) zum Empfangen von Messlicht, welches zumindest teilweise von zumindest einem in der Szene enthaltenen Objekt zurückgestreutes Beleuchtungslicht ist, und (b2) zum Messen von Distanzen zwischen dem Sensorsystem und dem zumindest einen Objekt basierend auf einer Lichtlaufzeit des Beleuchtungslichts und des Messlichts; (c) eine der Messeinrichtung informationstechnisch nachgeschaltete Datenverarbeitungseinrichtung zum Ermitteln einer dreidimensionalen Charakteristik der Szene basierend auf den gemessenen Distanzen; und (d) einen Datenspeicher, welcher informationstechnisch mit der Datenverarbeitungseinrichtung gekoppelt ist und in welchem zumindest eine Beschreibung von zumindest einem Referenzobjekt hinterlegt ist. Die Datenverarbeitungseinrichtung ist programmtechnisch eingerichtet (i) zum Erkennen zumindest eines Teilbereiches des Objekts; (ii) falls lediglich ein solcher Teilbereich erkannt wurde, zum Vergleichen des erkannten Teilbereiches mit der zumindest einen Beschreibung; und (iii) falls bei dem Vergleichen (innerhalb einer vorgegebenen Genauigkeit) eine Übereinstimmung zwischen dem erkannten Teilbereich und einem Referenzteilbereich eines von dem zumindest einen Referenzobjekt festgestellt wird, zum Identifizieren des Objekts als ein dem entsprechenden zumindest einen Referenzobjekt entsprechendes Objekt.
  • Dem beschriebenen Sensorsystem liegt die Erkenntnis zugrunde, dass auch eine (beabsichtigt oder unbeabsichtigt) unvollständige Szenenerfassung, bei der ein sich in der Szene befindliches Objekt nicht vollständig erkannt wird, durch ein a-priori Wissen des Erscheinungsbildes von Objekten, die sich möglicherweise in der Szene befinden, ausreichend sein kann, um eine Objektidentifizierung vorzunehmen. Anschaulich ausgedrückt kann durch eine der Erkennung lediglich eines Teilbereiches nachgeschaltete Bildauswertung ein Vergleich mit Referenzteilbereichen von einem oder mehreren Referenzobjekten vorgenommen werden. Dieser Vergleich kann abhängig von dem Ergebnis des Vergleiches zu einer Identifizierung des sich in der Szene befindlichen Objekts führen. Dadurch kann in vielen Anwendungsfällen auch bei qualitativ schlechten Szenenerfassungen oder Objekterkennungen eine zuverlässige Objektidentifizierung vorgenommen werden.
  • In diesem Zusammenhang kann eine unvollständige Szeneerfassung auch eine in zumindest Teilregionen schlechte Szenenerfassung mit einer geringen Genauigkeit sein, welche nicht ausreicht, um ein darin befindliches Objekt vollständig zu erkennen. Dies muss jedoch nicht zwangsläufig an der Szenenerfassung durch die Messeinrichtung liegen. Es ist auch möglich, dass von ein und demselben Objekt aufgrund von unterschiedlichen optischen Eigenschaften von verschiedenen Teilbereichen dieses Objekts nicht alle Teilbereiche des Objekts erkannt werden können.
  • Unter dem Begriff „Szene“ kann insbesondere derjenige räumliche Bereich verstanden werden, welcher von dem Sensorsystem mittels Methoden der Bildverarbeitung ausgewertet wird. In der Szene befindliche Objekte werden zumindest in Teilbereichen durch eine geeignete Bildauswertung erkannt. Dazu kann von der Datenverarbeitungseinrichtung auf bekannte Methoden zur Bildauswertung und/oder Bildanalyse zurückgegriffen werden. Die Datenverarbeitungseinrichtung kann demzufolge ein spezieller Bildverarbeitungsprozessor sein oder einen solchen aufweisen, der konfiguriert ist, bekannte Verfahren zur Bildauswertung und/oder Bildverarbeitung anzuwenden bzw. durchzuführen.
  • Unter dem Begriff „Beleuchtungslicht“ sind in diesem Dokument diejenigen elektromagnetischen Wellen zu verstehen, welche von einer Lichtquelle der Beleuchtungseinrichtung ausgesandt werden und auf das betreffende Objekt der Szene treffen. Das „Messlicht“ sind die von bzw. an dem Objekt zurückgestreuten elektromagnetischen Wellen, welche von der Messeinrichtung bzw. einem Lichtempfänger der Messeinrichtung empfangen und für die dreidimensionale Auswertung der Szene verwendet werden.
  • Die Begriffe „optisch“ und/oder „Licht“ können sich auf elektromagnetische Wellen beziehen, die eine bestimmte Wellenlänge bzw. Frequenz oder ein bestimmtes Spektrum von Wellenlängen bzw. Frequenzen haben. Insbesondere können die zum Einsatz kommenden elektromagnetischen Wellen dem für das menschliche Auge sichtbaren Spektralbereich zugeordnet werden. Alternativ oder in Kombination können auch elektromagnetische Wellen verwendet werden, die dem ultravioletten (UV) oder dem infraroten (IR) Spektralbereich zugeordnet sind. Der IR Spektralbereich kann sich bis in den langwelligen IR Bereich mit Wellenlängen zwischen 3,5 µm bis 15 µm erstrecken, welche mittels des Lichtempfängers des Sensors erfasst werden können.
  • Unter dem Begriff „Objekt“ kann jede räumlich körperliche Struktur verstanden werden, welche zumindest in Teilen eine Oberflächenbeschaffenheit aufweist, die zu einer zumindest teilweisen Reflexion bzw. Streuung von Beleuchtungslicht führt und damit durch das resultierende Messlicht für die Messeinrichtung sichtbar ist. Das Objekt kann ein Gegenstand wie beispielsweise ein Kraftfahrzeug oder ein Lebewesen wie beispielweise ein Mensch sein. Das Objekt kann ein in Bezug auf das Sensorsystem statisches oder ruhendes Objekt sein. Ferner kann das Objekt sich auch innerhalb der Szene bewegen, diese verlassen oder in diese eintreten. Durch eine wiederholte Szenenerfassung kann dann (durch einen Vergleich der mit verschiedenen Szenenerfassungen ermittelten verschiedenen Ortspositionen) die Bewegung (nach der Gesetzmäßigkeit Geschwindigkeit = Weg / Zeit) des Objekts bestimmt werden. Hierbei können je nach Anwendungsfall der Absolutwert der Geschwindigkeit und/oder der Bewegungsvektor, d.h. zusätzlich die Bewegungsrichtung, ermittelt werden.
  • Unter dem Begriff „informationstechnische Nachschaltung“ bzw. „informationstechnische Kopplung“ kann in diesem Dokument eine elektronische und/oder optische Verbindung verstanden werden, welche einen Austausch von analogen oder bevorzugt digitalen Datensignalen zwischen dem beteiligten Komponenten ermöglicht. Mittels solcher Datensignale kann eine Komponente eine andere Komponente veranlassen, eine bestimmte Aktion auszuführen.
  • Es wird darauf hingewiesen, dass die beschriebene Objektidentifizierung auch dann durchgeführt werden kann, wenn nicht nur ein (zusammenhängender) Teilbereich des Objekts sondern zwei oder mehr (voneinander räumlich getrennte Teilbereiche) erkannt werden. In diesem Fall wird dann die Beschreibung von dem zumindest einen Referenzobjekt in Hinblick auf mehrere Referenzteilbereiche untersucht. Dadurch kann bei einer Erkennung von mehreren Objektteilbereichen die Zuverlässigkeit der Objektidentifizierung erhöht werden.
  • Gemäß einem Ausführungsbeispiel der Erfindung ist die Datenverarbeitungseinrichtung programmtechnisch ferner eingerichtet (iv) um Identifizieren des Objekts als ein unbekanntes Objekt, falls bei dem Vergleichen (innerhalb der vorgegebenen Genauigkeit) keine Übereinstimmung zwischen dem erkannten Teilbereich und einem Referenzteilbereich eines von dem zumindest einen Referenzobjekt festgestellt wird.
  • Eine Identifizierung als ein unbekanntes Objekt kann beispielsweise in der Gebäudesicherheit vorgenommen werden. Ein unbekanntes Objekt kann beispielsweise von einer Berechtigung zum Passieren einer Öffnung, die von einem Verschließkörper verschlossen werden kann, ausgenommen werden. Dazu kann der Verschließkörper in einer Schließposition verbleiben oder von einer Öffnungsposition in eine Schließposition überführt werden.
  • Gemäß einem weiteren Ausführungsbeispiel der Erfindung weist die zumindest eine Beschreibung eine geometrische Beschreibung auf.
  • Die Verwendung von geometrischen Beschreibungen hat den Vorteil, dass Referenzobjekte mit jeweils einem kompakten Datensatz beschrieben werden können, der eine vergleichsweise kleine Datengröße hat. Dies ermöglicht, bei einer für die meisten Anwendungen völlig ausreichenden Zuverlässigkeit, eine auch bei einer begrenzten Rechenleistung der Datenverarbeitungseinrichtung schnelle Ausführung der erforderlichen Bildverarbeitungen und damit eine sehr schnelle Identifizierung. Dies erweitert den Anwendungsbereich des beschriebenen Sensorsystems erheblich, weil bei vielen Anwendungen eine sehr schnelle Objektidentifizierung erforderlich ist.
  • Gemäß einem weiteren Ausführungsbeispiel der Erfindung ist die Datenverarbeitungseinrichtung programmtechnisch eingerichtet, das Vergleichen des erkannten Teilbereiches mit der zumindest einen Beschreibung auf der Basis von dreidimensionalen Daten durchzuführen.
  • Ein Vergleich auf der Basis von zweidimensionalen Daten ist in der Regel rechentechnisch einfacher und insbesondere schneller durchführbar. In vielen Anwendungsfällen erweist sich jedoch ein „3D-Vergleich“ auf der Basis von dreidimensionalen Daten als wesentlich genauer, so dass die Prozesssicherheit beim Identifizieren des Objekts entsprechend größer ist. Selbstverständlich erfordert ein 3D-Vergleich neben der erfindungsgemäßen 3D Erfassung der Szene auch (i) eine entsprechende 3D-Datenverarbeitung hin zu einer 3D-Erkennung zumindest des Teilbereiches des Objektes sowie (ii) eine 3D-Beschreibung des zumindest einen Referenzobjekts.
  • Gemäß einem weiteren Ausführungsbeispiel der Erfindung weist die Beleuchtungseinrichtung auf (a) eine als Laser ausgebildete Beleuchtungslichtquelle zum räumlichen Abtasten der Szene mit einem ausgesandten Laserstrahl-Beleuchtungslicht, (b) eine zumindest annähernd punktförmige Beleuchtungslichtquelle, (c) eine Mehrzahl von einzelnen Beleuchtungslichtquellen, die insbesondere individuell ansteuerbar und jeweils einem bestimmten Raumwinkelbereich der Szene zugeordnet sind, und/oder (d) eine flächige Beleuchtungslichtquelle, insbesondere mit einer über die Fläche nicht homogenen Leuchtintensität.
  • Ein die Szene abtastender Laserstrahl kann in bekannter Weise über zwei drehbare Spiegel mit zueinander nicht parallelen und bevorzugt senkrecht zueinander orientierten Drehachsen auf die jeweils zu beleuchtende Stelle der Szene gelenkt werden. Für eine solche (dynamisch adaptive) Ablenkung können auch nicht mechanische optische Elemente wie beispielsweise Diffraktive Optische Elemente (DOEs) verwendet werden. Die Ablenkung kann insbesondere durch die vorstehend beschriebene Beleuchtungslicht-Steuereinrichtung gesteuert werden.
  • Die eine zumindest annähernd punktförmige Beleuchtungslichtquelle kann eine (ausreichend starke) Halbleiterdiode, beispielsweise eine Laser- oder Leuchtdiode sein. Um gezielt die Szene flächig zu beleuchten, können geeignete Strahlformungssysteme, insbesondere Linsensysteme verwendet werden. Um die beschriebene raumwinkelabhängig ungleichmäßige Beleuchtung der Szene zu realisieren, können geeignete optische Elemente zur Strahlablenkung, Strahlteilung und/oder Strahlzusammenführung verwendet werden. Auch DOEs können auf vorteilhafte Weise verwendet werden.
  • Die Mehrzahl von Beleuchtungslichtquellen, welche ebenfalls insbesondere Laser- oder Leuchtdioden sind, können (insbesondere individuell) von der vorstehend beschriebenen Beleuchtungslicht-Steuereinrichtung angesteuert werden. Dies erlaubt auf vorteilhafte Weise, mittels einer nachstehend beschriebenen Beleuchtungslicht-Steuereinrichtung, eine adaptiv gesteuerte oder sogar geregelte Einstellung einer Charakteristik des Beleuchtungslichts.
  • Auch eine flächige Lichtquelle kann die Quelle für eine raumwinkelabhängig nicht homogene Intensitätsverteilung sein. Sofern es sich um eine räumlich homogen erleuchtete Fläche handelt, können geeignete optische Elemente zur Strahlablenkung, Strahlteilung, Strahlzusammenführung und/oder Strahlformung eingesetzt werden, um die beschriebene raumwinkelabhängig ungleichmäßige Beleuchtung der Szene zu realisieren.
  • Gemäß einem weiteren Ausführungsbeispiel der Erfindung ist die Beleuchtungseinrichtung betreibbar (i) in einem ersten Beleuchtung-Betriebsmodus zum Beleuchten der Szene mit einer ersten Ausleuchtung und (ii) in einem zweiten Beleuchtung-Betriebsmodus zum Beleuchten der Szene mit einer zweiten Ausleuchtung. Die Erkennungssicherheit für den zumindest einen Teilbereich des Objektes bei der zweiten Ausleuchtung ist größer als die Erkennungssicherheit bei der ersten Ausleuchtung. Dies hat den Vorteil, dass die Szene adaptiv dann besser ausgeleuchtet werden kann, wenn (in der Zukunft bzw. in Kürze) mit einer Objekterkennung zu rechnen ist. Eine Prognose für eine Objekterkennung kann auf einem Wissen oder einer Vermutung über das Vorhandensein von Objekten basieren. Alternativ oder in Kombination kann die Prognose auch auf einer soeben erfolgten Erkennung eines Teilbereiches basieren. Der durch eine solche Prognose veranlasste Betrieb der Beleuchtungseinrichtung in dem zweiten Beleuchtung-Betriebsmodus kann dann in vielen Anwendungsfällen dazu führen, dass bei einer nächsten Erkennung bei einer besseren Ausleuchtung ein größerer Teilbereich des Objekts (oder sogar das ganze Objekt) erkannt werden kann. Dadurch wird die Zuverlässigkeit der Objektidentifikation erhöht.
  • Die Ausleuchtung der Szene kann sich auf die Intensität des Beleuchtungslichts beziehen, welche von der gesamten Beleuchtungseinrichtung zur Verfügung gestellt wird. Die Ausleuchtung der Szene kann, beispielsweise durch die Verwendung eines adaptiven optischen Elements, in bestimmten Regionen der Szene, in denen ein Objekt vermutet wird, größer sein als in anderen Regionen. Ferner kann die Ausleuchtung durch eine Änderung einer Wiederholrate von einer Mehrzahl von aufeinanderfolgenden Belichtungen verändert werden. Eine solche Belichtung kann eine flächige Beleuchtung der Szene oder ein sequenzielles Abtasten der Szene mit einem beispielsweise durch zwei Spiegel abgelenkten Laserstrahl aufweisen.
  • Es wird darauf hingewiesen, dass in der Regel der Energiebedarf der Beleuchtungseinrichtung und damit der Energieverbrauch des gesamten Sensorsystems dann größer sind, wenn der zweite Beleuchtung-Betriebsmodus aktiviert ist. Da dies über eine längere Zeitspanne häufig nur in relativ kurzen Zeitfenstern der Fall sein wird, kann der mittlere Energieverbrauch des Sensorsystems gering gehalten werden. Das beschriebene Sensorsystem kann nämlich, anders ausgedrückt, die meiste Zeit mit dem ersten Beleuchtung-Betriebsmodus betrieben werden, so dass im Vergleich zu einer ständig vorhandenen starken zweiten Ausleuchtung der Energieverbrauch deutlich geringer ist.
  • Gemäß einem weiteren Ausführungsbeispiel der Erfindung weist das Sensorsystem ferner auf eine Beleuchtungslicht-Steuereinrichtung welche informationstechnisch mit der Datenverarbeitungseinrichtung gekoppelt ist, wobei die Datenverarbeitungseinrichtung programmtechnisch ferner eingerichtet ist, bei einem Erkennen eines Teilbereiches des Objekts die Beleuchtungslicht-Steuereinrichtung zu veranlassen, von dem ersten Beleuchtung-Betriebsmodus in den zweiten Beleuchtung-Betriebsmodus umzuschalten.
  • Anschaulich ausgedrückt wird bei diesem Ausführungsbeispiel nach einer Objekterkennung eine verbesserte Beleuchtungssituation hergestellt, so dass mit einer nachfolgenden Objekterkennung gegebenenfalls ein größerer Teilbereich oder weitere Teilbereiche des Objekts erkannt werden können. Eine solche räumlich erweiterte Erkennung kann dann zu einer Verbesserung der Zuverlässigkeit der Identifizierung des Objekts führen.
  • Gemäß einem weiteren Ausführungsbeispiel der Erfindung weist die Messeinrichtung auf einen Lichtempfänger, welcher betreibbar ist (i) in einem ersten Lichtempfang-Betriebsmodus zum Empfangen von Messlicht mit einer ersten Empfindlichkeit und (ii) in einem zweiten Lichtempfang-Betriebsmodus zum Empfangen von Messlicht mit einer zweiten Empfindlichkeit, wobei die Erkennungssicherheit für den zumindest einen Teilbereich des Objektes bei der zweiten Empfindlichkeit größer ist als bei der ersten Empfindlichkeit. Dies hat den Vorteil, dass in Analogie zu den vorstehend beschriebenen Betriebsmodi in Bezug auf die Beleuchtung die Szene adaptiv dann genauer erfasst werden kann, wenn (in der Zukunft bzw. in Kürze) mit einer Objekterkennung zu rechnen ist. Auch in diesem Fall kann eine Prognose für eine Objekterkennung auf einem Wissen oder einer Vermutung über das Vorhandensein von Objekten und/oder auf einer soeben erfolgten Erkennung eines Teilbereiches basieren. Der durch eine solche Prognose veranlasste Betrieb des Lichtempfängers in dem zweiten Lichtempfang-Betriebsmodus kann dann dazu beitragen, dass bei einer nächsten Erkennung ein größerer Teilbereich des Objekts (oder sogar das ganze Objekt) erkannt werden kann. Dadurch wird die Zuverlässigkeit der Objektidentifikation (weiter) erhöht.
  • Gemäß einem weiteren Ausführungsbeispiel der Erfindung weist das Sensorsystem ferner auf eine Lichtempfänger-Steuereinrichtung, welche mit der Datenverarbeitungseinrichtung und mit dem Lichtempfänger gekoppelt ist. Die Datenverarbeitungseinrichtung programmtechnisch ist ferner eingerichtet, bei einem Erkennen eines Teilbereiches des Objekts die Lichtempfänger-Steuereinrichtung zu veranlassen, von dem ersten Lichtempfang-Betriebsmodus in den zweiten Lichtempfang-Betriebsmodus umzuschalten.
  • Anschaulich ausgedrückt wird bei diesem Ausführungsbeispiel in Analogie zu der vorstehend beschriebenen Umschaltung des Beleuchtung-Betriebsmodus nach einer Objekterkennung der Betrieb des Lichtempfängers auf den zweiten Lichtempfang-Betriebsmodus umgestellt, so dass mit einer nachfolgenden Objekterkennung gegebenenfalls ein größerer Teilbereich oder weitere Teilbereiche des Objekts erkannt werden können. Auch dadurch kann eine Verbesserung der Zuverlässigkeit der Identifizierung des Objekts herbeigeführt werden.
  • Gemäß einem weiteren Ausführungsbeispiel der Erfindung weist der Lichtempfänger eine Vielzahl von Pixeln zum Empfangen des Messlichts aufweist, wobei in einem der beiden Lichtempfang-Betriebsmodi zumindest zwei Pixel der Vielzahl von Pixeln zu einem übergeordneten Pixel zusammengefasst sind.
  • Typischerweise werden zumindest einige der Vielzahl von Pixeln dahingehend zusammengefasst, dass jeweils eine gewisse Anzahl von Pixeln zu einem übergeordneten Pixel zusammengefasst wird. Die gewisse Anzahl kann dabei beispielsweise (bevorzugt) zwei, drei, (bevorzugt) vier, sechs, (bevorzugt) acht, oder (bevorzugt) neun sein. Selbstverständlich ist auch eine noch stärkere Zusammenfassung von Pixeln möglich.
  • Ein solches Zusammenfassen von Pixeln, welches auch als „Binning“ bezeichnet wird, hat die Wirkung, dass auf Kosten der räumlichen Auflösung die Anzahl an Photonen des Messlichts, die während einer Szenenerfassung von einem Pixel eingesammelt bzw. akkumuliert werden, entsprechend der Anzahl an zu einem übergeordneten Pixel zusammengefassten Pixeln erhöht wird. Dadurch verringert sich insbesondere bei schwachem Messlicht das sog. statistische Photonenrauschen, was die Szenenauswertegenauigkeit verbessert. Ein „Binning“ ist deshalb insbesondere bei einem schwachen Messlicht dann von Vorteil, wenn eine hohe räumliche Auflösung nicht erforderlich ist.
  • Es wird darauf hingewiesen, dass über die Fläche des Lichtempfängers ein Binning auch lokal in lediglich zumindest einem Teilbereich der aktiven Flächen des Lichtempfängers durchgeführt werden kann. Ein solches lokales „Binning“ führt dann zwar zu einer inhomogenen räumlichen Auflösung, welche nicht unbedingt gewünscht ist. Der Nachteil einer solchen inhomogenen räumlichen Auflösung wird aber in vielen Anwendungsfällen durch die erhöhte Photonenakkumulation überkompensiert. Ein lokales „Binning“ kann zumindest bei einigen bekannten Lichtempfängern ohne besondere elektronische oder apparative Elemente einfach durch eine entsprechende Ansteuerung des Lichtempfängers durch die Lichtempfänger-Steuereinrichtung, ggf. auf Veranlassung der Datenverarbeitungseinrichtung, erfolgen, welche Ansteuerung das „Binning“ und damit den Lichtempfang-Betriebsmodus bestimmt.
  • Bei bevorzugten Ausführungsformen wird ein lokales „Binning“ dahingehend durchgeführt, dass, von der Messeinrichtung gemessen und/oder von der Datenverarbeitungseinrichtung erlernt, genau diejenigen Bereiche des Lichtempfängers, welche bei zumindest einer vorherigen Szenenerfassung zu wenig Lichtenergie erhalten haben, durch eine geeignete Ansteuerung des Lichtempfängers durch die Lichtempfänger-Steuereinrichtung bei nachfolgenden Szenenerfassungen in geeigneter Weise zu übergeordneten Pixel zusammengefasst werden. Ein solches dynamisch gesteuertes oder geregeltes „Binning“ kann während eines üblichen Betriebs des Sensorsystems (erlernt) und/oder während der Konfiguration des Sensorsystems beispielsweise im Rahmen einer (Erst)Installation, einer Wartung, einer zyklischen bzw. automatischen Re-Konfiguration etc. durchgeführt werden.
  • Es wird ferner darauf hingewiesen, dass bei einer nicht quadratischen Anzahl an zu einem übergeordneten Pixel zusammengefassten einzelnen Pixeln die räumliche Auflösung des Lichtempfängers entlang unterschiedlicher Richtungen jedenfalls dann unterschiedlich ist, wenn die einzelnen Pixel eine quadratische Form haben. Dies kann bei manchen Anwendungsfällen in vorteilhafter Weise ausgenutzt werden. Ein solcher Anwendungsfall liegt beispielsweise dann vor, wenn eine Bewegung eines Objekts in der Szene entlang einer vorbekannten Raumrichtung mit hoher Genauigkeit erfasst werden soll als eine Bewegung entlang einer anderen, vorzugsweise dazu senkrechten, Raumrichtung. In einem solchen Fall kann die Anzahl an Pixel, welche entlang einer Linie parallel zu dieser vorbekannten Raumrichtung (so wie sie auf dem Lichtempfänger abgebildet ist) angeordnet sind, größer sein als die Anzahl an Pixel, welche entlang einer dazu senkrechten Linie angeordnet sind. Dann ist die räumliche Auflösung entlang der Bewegungsrichtung größer als die räumliche Auflösung senkrecht zu der Bewegungsrichtung und das Bewegungsprofil eines solchen linear bewegten Objekts kann mit einer besonders hohen Genauigkeit auch bei einem vergleichsweise schwachen Messlicht ermittelt werden.
  • Es wird ferner darauf hingewiesen, dass das beschriebene Binning auch adaptiv als Reaktion auf zumindest eine zuvor erfasste (und ausgewertete) Szenencharakteristik (auf automatische Weise) aktiviert werden kann. Dies bedeutet, dass das „Binning“ von der Lichtempfänger-Steuereinrichtung nicht nur gesteuert sondern abhängig von den durch eine Szenenauswertung gewonnenen Ergebnissen geregelt wird. Dadurch wird eine besonders zuverlässige Szenenerfassung auch bei schwachem Messlicht ermöglicht, so dass das beschriebene Sensorsystem auch mit einem entsprechend schwachen Beleuchtungslicht und damit auf energieeffiziente Weise betrieben werden kann.
  • Gemäß einem weiteren Ausführungsbeispiel der Erfindung ist die Datenverarbeitungseinrichtung ferner derart konfiguriert, dass eine Bedeckungscharakteristik einer Öffnung durch zumindest einen Verschließkörper steuerbar ist. Dadurch kann die Öffnung, welche beispielsweise ein Eingang (bzw. ein Ausgang) eines Gebäudes ist, auf besonders zuverlässige Weise automatisch überwacht werden. Durch eine geeignete Ansteuerung eines Aktuators kann der Verschließkörper automatisch zwischen einer geöffneten Position und einer geschlossenen Position bewegt werden. Dazu kann die Datenverarbeitungseinrichtung des beschriebenen Sensorsystems mit der Steuerung eines bekannten Steuersystems für einen Verschließkörper gekoppelt werden.
  • Der Verschleißkörper kann jedes beliebige Barriereelement sein, mittels welchem eine Öffnung temporär zumindest teilweise verschlossen werden kann. Der Verschließkörper kann beispielsweise sein (i) eine Schiebetür, (ii) eine Drehtür, (iii) ein Drehkreuz, (iv) ein Tor, insbesondere ein Garagentor, (v) eine Schranke, insbesondere an einem Bahnübergang oder einer Fahrzeugeinfahrt oder Fahrzeugausfahrt.
  • Gemäß einem weiteren Aspekt der Erfindung wird beschrieben ein Verfahren zum dreidimensionalen Erfassen einer Szene und zum Erkennen von Objekten in der dreidimensional erfassten Szene mittels eines Sensorsystems und insbesondere mittels eines Sensorsystems des vorstehend beschriebenen Typs. Das beschriebene Verfahren weist auf (a) ein Beleuchten der Szene mit Beleuchtungslicht unter Verwendung einer Beleuchtungseinrichtung; (b) ein Empfangen von Messlicht, welches zumindest teilweise von zumindest einem in der Szene enthaltenen Objekt zurückgestreutes Beleuchtungslicht ist, unter Verwendung einer Messeinrichtung; (c) ein Messen von Distanzen zwischen dem Sensorsystem und dem zumindest einen Objekt basierend auf einer Lichtlaufzeit des Beleuchtungslichts und des Messlichts, unter Verwendung der Messeinrichtung; (d) ein Ermitteln einer dreidimensionalen Charakteristik der Szene basierend auf den gemessenen Distanzen unter Verwendung einer Datenverarbeitungseinrichtung, welche der Messeinrichtung informationstechnisch nachgeschaltet ist; (e) Erkennen zumindest eines Teilbereiches des Objekts unter Verwendung der Datenverarbeitungseinrichtung, welche informationstechnisch mit einem Datenspeicher gekoppelt ist, in welchem zumindest eine Beschreibung von zumindest einem Referenzobjekt hinterlegt ist; (f) falls lediglich ein solcher Teilbereich erkannt wurde, ein Vergleichen des erkannten Teilbereiches mit der zumindest einen Beschreibung; und (g) falls bei dem Vergleichen (innerhalb einer vorgegebenen Genauigkeit) eine Übereinstimmung zwischen dem erkannten Teilbereich und einem Referenzteilbereich eines von dem zumindest einem Referenzobjekt festgestellt wurde, ein Identifizieren des Objekts als ein dem entsprechenden zumindest einen Referenzobjekt entsprechendes Objekt.
  • Auch dem beschriebenen Verfahren liegt die Erkenntnis zugrunde, dass eine unvollständige oder ungenaue Szenenerfassung ausreichen kann, um unter Berücksichtigung eines in dem Datenspeicher hinterlegten a-priori Wissens über mögliche Erscheinungsformen des Objektes, eine Objektidentifizierung anhand von erkannten Objekt-Teilbereiche vorzunehmen.
  • Gemäß einem Ausführungsbeispiel der Erfindung ist das Objekt ein sich in der Szene bewegendes Objekt. Dies bedeutet, dass das beschriebene Sensorsystem für eine Erfassung einer Szene verwendet wird, deren Charakteristik sich zeitlich ändert. Bei einer solchen zeitlich veränderlichen Szenencharakteristik kommen im besonderen Maße die Vorteile des hier beschriebenen Sensorsystems zum Tragen. Eine Szene mit einer zeitlich veränderlichen Charakteristik kann nämlich nur dann auf sinnvolle Weise erfasst werden, wenn eine zeitliche Abfolge einer Mehrzahl von Szenenerfassungen durchgeführt wird, aus denen die Bewegung des Objektes abgeleitet werden kann. Da insbesondere bei sich schnell bewegenden Objekten jeweils eine kurze Belichtungszeit durch das Beleuchtungslicht erforderlich ist, ist das Messlicht, welches während einer Einzelmessung in dem Lichtempfänger eingesammelt wird, entsprechend schwach. Dies kann dazu beitragen, dass nicht das gesamte Objekt, sondern lediglich ein Teilbereich davon erkannt wird. Das in dem Datenspeicher hinterlegte a-priori Wissen über mögliche Objekt-Erscheinungsformen wird dann erfindungsgemäß zu einer Erkennung bzw. Identifizierung des gesamten Objekts verwendet.
  • Gemäß einem weiteren Ausführungsbeispiel der Erfindung ist das Objekt ein Lebewesen, insbesondere ein Mensch.
  • Bei der Identifizierung eines Menschen, welcher, aus welchen Gründen auch immer, nicht vollständig erfasst werden kann oder erfasst worden ist, kann das hier beschriebene Verfahren auf besonders vorteilhafte Weise angewendet werden. Ein Mensch hat nämlich mehrere Gliedmaßen, die hinsichtlich ihrer Größe ganz unterschiedliche Dimensionen haben. Ein Lebewesen und insbesondere ein Mensch kann nämlich physiologisch sehr genau beschrieben werden. Entsprechende Beschreibungsdaten werden in dem Datenspeicher hinterlegt. Dabei kann beispielsweise berücksichtigt werden, dass Finger mit einem minimalen Detektionsvolumen von typischerweise wenigen Zentilitern naturgemäß immer mit Armen von weniger als 1 Meter Länge verbunden sind. Diese führen dann zu einem Körper, der ein minimales Detektionsvolumen von mehreren Litern aufweist. Deshalb kann mit dem hier beschriebenen Verfahren ein Schutz vor einer Gefährdung durch einen sich bewegenden Verschließkörper auf einfache Weise realisiert werden, der sich insbesondere in Richtung einer Schließposition bewegt, um eine Öffnung, beispielsweise eine Durchgangsöffnung in einem Gebäude, zu verschließen. In diesem Fall kann nämlich aus einer Detektion von mehreren Litern „Abnormvolumen“ (= Volumen, das zusätzlich zu dem ohne das Objekt vorhandenen „Leervolumen“ vorhanden ist) geschlossen werden, dass sich innerhalb eines Radius von einem Meter die Finger einer menschlichen Person befinden müssen. Um auf zuverlässige Weise ein Einklemmen von Fingern zu verhindern, muss in einem Fall, in dem das genannte „Abnormvolumen“ in einem Abstand von weniger als 1 Meter von dem Verschließkörper erkannt wird, eine Bewegung des Verschließkörpers verhindert werden.
  • Das vorstehend am Beispiel von Finger und Körper beschriebene Prinzip lässt sich natürlich noch um das Körperteil „Arm“ erweitern: Für die volumetrische Erkennung von Finger - Arm - Körper sind typischerweise Volumenunterschiede von 1:10:100 vorhanden. Eine entsprechend dreistufige Objektidentifikation lässt sich jedoch mit demselben Prinzip umsetzen. Dies gilt auch für andere Kombinationen von Körperteilen, beispielsweise einem Kopf, einem Bein, einem Fuß, etc.
  • Der vorstehend beschriebene „modellmäßige Übergang“ bei einer „figürlichen“ Objekterkennung kann auch die Sicherheit der zuverlässigen Erkennung bei einer Interpretation einer Punktwolke aus 3D Punktdaten erhöhen. Dies ist insoweit von Bedeutung, weil eine solche Punktwolke ein bei vielen Anwendungen standartmäßiges Zwischen-Datenformat ist, das bei einer 3D Szenenanalyse verwendet wird.
  • Gemäß einem weiteren Aspekt der Erfindung wird beschrieben eine Verwendung eines Sensorsystems des vorstehend beschriebenen Typs für ein Steuern einer Bedeckungscharakteristik einer von einem Objekt zu passierenden Öffnung durch zumindest einen Verschließkörper.
  • Der beschriebenen Verwendung liegt die Erkenntnis zugrunde, dass eine Objektidentifikation auf der Basis eine Objekt-Teilerkennung und einem in dem Datenspeicher hinterlegten a-priori Wissen auf vorteilhafte Weise bei Durchgängen eingesetzt werden kann, welche von einem Verschließkörper verschlossen werden können. Dies gilt insbesondere für Durchgänge, welche eine Verschließ- bzw. eine Bedeckungscharakteristik aufweisen, die von dem beschriebenen Sensorsystem gesteuert oder zumindest mitgesteuert wird.
  • Gemäß einem Ausführungsbeispiel der Erfindung ist die Öffnung ein Eingang oder ein Ausgang, insbesondere ein Notausgang in einem Gebäude.
  • Durch das Erkennen eines zwar vorhandenen, aber sich ggf. nicht bewegenden Objektes in einem Durchgangsbereich kann ein Eingang oder Ausgang überwacht, insbesondere ein blockierter Notausgang erkannt, und die entsprechende Information an ein angegliedertes System, beispielsweise an ein Überwachungssystem, übermittelt werden.
  • Gemäß einem weiteren Ausführungsbeispiel der Erfindung ist das Objekt eine Person oder ein Fahrzeug. In diesem Fall kann das Gebäude insbesondere ein Haus bzw. eine Garage sein.
  • Weitere Vorteile und Merkmale der vorliegenden Erfindung ergeben sich aus der folgenden beispielhaften Beschreibung derzeit bevorzugter Ausführungsformen.
  • Figurenliste
    • 1 zeigt die Verwendung eines Sensorsystems zum Steuern einer Bedeckungscharakteristik einer Öffnung mittels als Schiebetüren ausgebildeten Verschließkörpern .
    • 2 zeigt einen Menschen mit mehreren erkennbaren Teilbereichen, die für eine Identifizierung des Objekts „Mensch“ verwendet werden können.
    • 3a und 3b illustrieren ein Zusammenfassen von Einzelpixeln zur Erhöhung der Lichtempfindlichkeit eines Lichtempfängers.
  • Detaillierte Beschreibung
  • 1 zeigt die Verwendung eines Sensorsystems 100 zum Steuern einer Bedeckungscharakteristik einer Öffnung 184 durch einen Verschließkörper 186, welcher als eine zweiteilige Schiebetür ausgebildet ist. Gemäß dem hier dargestellten Ausführungsbeispiel ist die Öffnung 184 eine Eintrittsöffnung für Personen in ein Gebäude oder eine Garageneinfahrt für Kraftfahrzeuge. Die entsprechende Eingangsstruktur ist mit dem Bezugszeichen 180 versehen. Ein in einer von dem Sensorsystem 100 überwachten Szene 190 befindliches Objekt 195 soll eine solche Person oder ein Kraftfahrzeug symbolisieren.
  • Die Eingangsstruktur 180 umfasst eine stationäre Haltestruktur 182, welche einen Rahmen sowie eine Führung für die zwei Schiebetüren des Verschließkörpers 186 darstellt. Die Schiebetüren 186 können jeweils mittels eines Motors 187 entlang der durch zwei dicke Doppelpfeile dargestellten Verschieberichtungen bewegt werden. Die Ansteuerung der Motoren 187 erfolgt, wie im Folgenden dargelegt, mittels einer Datenverarbeitungseinrichtung 150 des in diesem Dokument beschriebenen Sensorsystems 100. Die Datenverarbeitungseinrichtung 150 dient also auch als Steuerungseinrichtung für den Verschließkörper 186.
  • Das Sensorsystem 100 weist auf eine Time Of Flight (TOF) Messeinrichtung 110, die Datenverarbeitungseinrichtung 150 sowie einen Datenspeicher 160.
  • Die TOF-Messeinrichtung 110 wiederum weist eine Beleuchtungseinrichtung 130 und einen Lichtempfänger 120 auf. Gemäß dem hier dargestellten Ausführungsbeispiel weist die TOF-Messeinrichtung 110 auf bzw. sind der TOF-Messeinrichtung 110 zugeordnet (i) eine Beleuchtungslicht-Steuereinrichtung 135 zum Steuern des Betriebs der Beleuchtungseinrichtung 130, (ii) eine dem Lichtempfänger 120 nachgeschaltete Messeinheit 125 zum Messen einer Lichtlaufzeit zwischen von der Beleuchtungseinrichtung 130 ausgesandten Beleuchtungslicht 131 und von dem Lichtempfänger 120 nach einer Streuung an dem Objekt 195 empfangenen Messlicht 196 und (iii) eine Lichtempfänger-Steuereinrichtung 140 zum Steuern des Betriebs bzw. zum Auswählen eines Betriebsmodus des Lichtempfängers 120.
  • In der TOF-Messeinrichtung 110 sind alle optischen Komponenten des Sensorsystems 100 untergebracht. Bevorzugt ist das ganze Sensorsystem 100 (im Gegensatz zu der Darstellung von 1) als ein Modul aufgebaut, welches innerhalb einer kompakten Bauweise neben der TOF-Messeinrichtung 110 auch noch die Datenverarbeitungseinrichtung 150 sowie den Datenspeicher 160 aufweist.
  • Im Betrieb des Sensorsystems steuert die Datenverarbeitungseinrichtung 150 die beiden Motoren 187. Eine dafür erforderliche elektrische Leistung zum Betätigen der Türen 186 wird jeweils von einer Endstufe bzw. einem Leistungsverstärker bereitgestellt, die bzw. der gemäß dem hier dargestellten Ausführungsbeispiel in dem Gehäuse des jeweiligen Motors 187 integriert ist. Angesteuert werden die beiden Endstufen jeweils über ein Steuersignal 152a, welches an einem Steuerausgang 152 von der Datenverarbeitungseinrichtung 150 ausgegeben wird.
  • Gemäß dem hier dargestellten Ausführungsbeispiel ist das Sensorsystem 100 in der Lage, eine Objekterkennung vorzunehmen. Dazu greift die Datenverarbeitungseinrichtung 150 auf einen in dem Datenspeicher 160 abgelegten Datensatz von Referenzobjekten zu, welche ausgewählten Objekten entsprechen, die autorisiert sind, die Öffnung 184 zu passieren. Dies bedeutet, dass bei einer geeigneten Annäherung des Objekts 195 an den Eingang 184 die Schiebetüren 186 lediglich dann geöffnet werden, wenn das erkannte Objekt 195 zumindest annähernd mit einem der hinterlegten Referenzobjekten übereinstimmt. Dies bedeutet anschaulich, dass bei der hier beschriebenen Verwendung des Sensorsystems 100 eine objektbasierte Zugangskontrolle stattfindet.
  • In Übereinstimmung mit dem Grundgedanken der in diesem Dokument beschriebenen Erfindung sind in dem Datenspeicher 160 Beschreibungen der Referenzobjekte hinterlegt. Ferner ist die Datenverarbeitungseinrichtung 150 programmtechnisch eingerichtet, falls lediglich (zumindest) ein Teilbereich des Objekts 195 erkannt wurde, diesen Teilbereich mit den Beschreibungen zu vergleichen. Dabei wird der erkannte Teilbereich mit bekannten Mitteln der Bildanalyse charakterisiert und mit verschiedenen Teilen jeweils einer Beschreibung verglichen. Dazu kann jede Beschreibung eines Referenzobjekts eine Mehrzahl von Teilbeschreibungen umfassen, wobei die Teilbeschreibungen in Bezug auf die Struktur des jeweiligen Referenzobjekts auch eine gewisse Überlappung aufweisen können. Dies hat den Vorteil, dass dem Referenzobjekt eine Vielzahl von Teilbeschreibungen zugeordnet werden können, welche jeweils einzeln mit der Charakteristik des erkannten Teilbereichs verglichen werden können. Bei einer innerhalb einer bestimmten Genauigkeit erkannten Übereinstimmung des erkannten Teilbereichs mit einer Teilbeschreibung eines Referenzobjekts wird das sich in der Szene 190 befindliche Objekt 195 als ein Objekt identifiziert, welches mit dem Referenzobjekt zumindest hinsichtlich seines Typs übereinstimmt.
  • Es wird darauf hingewiesen, dass in dem Datenspeicher 160, falls eine Zugangskontrolle lediglich in Bezug auf einen Typ von Objekt 195 erfolgen soll, auch lediglich eine Beschreibung von einem einzigen Referenzobjekt hinterlegt sein kann (ggf. mit einer Mehrzahl von Teilbeschreibungen). Dies bedeutet, dass das Sensorsystem 100 basierend auf zumindest einem erkannten Objekt-Teilbereich den Zugang für einen Objekttyp überwacht. Der Objekttyp, dem ein Zugang ermöglicht werden soll, kann beispielsweise ein Mensch sein. Anderen Objekttypen wie beispielsweise Tieren soll der Zugang zu bzw. der Durchgang durch die Öffnung 184 verwehrt werden.
  • 2 zeigt einen Objekttyp Mensch 195 mit mehreren erkennbaren Teilbereichen 295a, 295b, 295c, 295d und 295e. Gemäß dem hier dargestellten Ausführungsbeispiel sind die Teilbereiche charakteristischen Strukturen des Körpers des Menschen 195 zugeordnet, welche besonders einfach und zuverlässig erkannt werden können. Aus Gründen der Übersichtlichkeit sind auch nicht alle (möglichen) für eine Objektidentifizierung anhand von erkannten Teilbereichen verwendbaren Teilbereiche eingezeichnet. Insbesondere können natürlich neben dem Teilbereich Kopf 295a nicht nur die Teilbereiche linker Ellenbogen 295b und linke Hand 295c sondern auch die Teilbereiche rechter Ellenbogen und rechte Hand verwendet werden. Gleiches gilt natürlich auch für die nicht eingezeichneten Teilbereiche linkes Knie und linker Fuß, die anatomisch dem rechten Knie 295d bzw. dem rechten Fuß 295e entsprechen.
  • Als ein weiterer Teilbereich, der für eine Objektidentifizierung verwendet werden könnte, bietet sich der Rumpf des Menschen 195 an. Dieser hat zwar vergleichsweise wenig charakteristische Strukturen, kann aber anhand der Größe seines Volumens erkannt werden.
  • Um verschiedene Teilbereiche 295a, 295b, 295c, 295d und 295e des Objekts 195 möglichst gut erkennen zu können, kann der in 1 dargestellte Lichtempfänger in unterschiedlichen Lichtempfang-Betriebsmodi zum Empfangen von Messlicht betrieben werden. In einem ersten Lichtempfang-Betriebsmodus mit einer ersten Empfindlichkeit kann die Szene besonders schnell erfasst werden. Die Genauigkeit der Szenenerfassung ist aber reduziert, so dass sich für einen Teilbereich des Objekts 195 nur eine begrenzte Erkennungssicherheit ergibt. In einem zweiten Lichtempfang-Betriebsmodus wird die Szene 190 mit einer erhöhten Genauigkeit erfasst. Die Erkennungssicherheit ist entsprechend verbessert. In diesem Zusammenhang ist die Datenverarbeitungseinrichtung 150 in der Lage, bei einem (nicht besonders genauen) Erkennen eines Teilbereiches 295a-e des Objekts 195 die Lichtempfänger-Steuereinrichtung 125 zu veranlassen, von dem ersten Lichtempfang-Betriebsmodus in den zweiten Lichtempfang-Betriebsmodus umzuschalten. Dann wird zumindest der betreffende Teilbereich noch einmal mit einer höheren Genauigkeit erfasst. Die entsprechenden genaueren Daten werden dann für einen Vergleich mit der Beschreibung eines Referenzobjektes verwendet.
  • Gemäß dem hier dargestellten Ausführungsbeispiel wird die Genauigkeit der Szenenerfassung durch die räumliche Auflösung des Lichtempfängers 120 bestimmt. Dieser ist nämlich in der Lage, in dem ersten Lichtempfang-Betriebsmodus benachbarte Pixel zusammenzufassen, so dass pro zusammengefasstem Pixel bei einer bestimmten Intensität von Messlicht pro Zeiteinheit mehr Photonen akkumuliert werden.
  • Die 3a und 3b illustrieren ein solches Zusammenfassen von Einzelpixeln eines als ein Halbleiter- bzw. CCD Chip ausgebildeten Lichtempfängers 320a bzw. 320b. Der Lichtempfänger 320a weist eine Vielzahl von lichtsensitiven bzw. Photonen sammelnden Pixeln 322a auf. Gemäß dem hier dargestellten Ausführungsbeispiel sind die Pixel 322a einer vollen räumlichen Auflösung des Lichtempfängers 320a zugeordnet, welche Auflösung durch die Halbleiter-Architektur des Chips 320a vorgegeben ist.
  • Bei dem Lichtempfänger 320b sind jeweils vier der lichtsensitiven Pixel (für eine volle Auflösung) zu einem übergeordneten Pixel 322b (für eine erhöhte Photonenakkumulation pro Pixel auf Kosten einer reduzierten räumlichen Auflösung) zusammengefasst. Anschaulich ausgedrückt sammelt ein Pixel 322b im Vergleich zu einem einzelnen Pixel 322a eine vierfache Menge an Licht. Ein solches Zusammenfassen (Englisch „Binning“) reduziert die erforderliche (Mindest)Intensität des erfassten Messlichts, welche zum Auswerten des entsprechenden Bildbereiches der Szene 190 benötigt wird. Da die Intensität des Messlichts 196 unmittelbar von der Intensität des Beleuchtungslichts 131 abhängt, kann im ersten Lichtempfang-Betriebsmodus durch das „Binning“ die Intensität des Beleuchtungslichts 131 reduziert und damit der Energieverbrauch des Sensorsystems 100 verringert werden.
  • Es wird darauf hingewiesen, dass auch mehr als zwei unterschiedliche Lichtempfang-Betriebsmodi mit jeweils einer unterschiedlich starken Zusammenfassung von Pixeln zum Einsatz kommen können. Ferner ist es möglich, in unterschiedlichen Teilbereichen des Lichtempfängers jeweils eine unterschiedliche Anzahl von Einzelpixeln zu einem übergeordneten Pixel zusammenzufassen. Dann können einzelne Teilbereiche der Szene mit einer höheren räumlichen Auflösung (und einer geringeren Photonenakkumulation) und andere Teilbereich der Szene mit einer niedrigeren räumlichen Auflösung (und einer höheren Photonenakkumulation) erfasst werden. Das beschriebene lokale und unterschiedlich starke Zusammenfassen von Pixeln kann auch dynamisch bzw. adaptiv in genau solchen Teilbereichen durchgeführt werden, in denen sich gerade ein bestimmtes Objekt befindet.
  • Es wird angemerkt, dass der Begriff „aufweisen“ nicht andere Elemente ausschließt und dass das „ein“ nicht eine Mehrzahl ausschließt. Auch können Elemente, die in Zusammenhang mit unterschiedlichen Ausführungsbeispielen beschrieben sind, kombiniert werden. Es sollte auch angemerkt werden, dass Bezugszeichen in den Ansprüchen nicht als den Schutzbereich der Ansprüche beschränkend ausgelegt werden sollen.
  • Bezugszeichenliste
  • 100
    Sensorsystem
    110
    TOF Messeinrichtung
    120
    Lichtempfänger
    125
    Messeinheit
    130
    Beleuchtungseinrichtung
    131
    Beleuchtungslicht
    135
    Beleuchtungslicht-Steuereinrichtung
    140
    Lichtempfänger-Steuereinrichtung
    150
    Datenverarbeitungseinrichtung
    152
    Steuerausgang
    152a
    Steuersignal
    160
    Datenspeicher
    180
    Eingangsstruktur
    182
    stationäre Haltestruktur
    184
    Öffnung
    186
    Verschließkörper / Schiebetür
    187
    Motor M
    190
    Szene
    195
    Objekt
    196
    Messlicht
    295a-e
    Teilbereiche
    320a/b
    Lichtempfänger / Sensorchip
    322a
    Pixel
    322b
    übergeordnetes Pixel / zusammengefasstes Pixel
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • EP 2453252 B1 [0004]

Claims (17)

  1. Sensorsystem (100) zum dreidimensionalen Erfassen einer Szene (190) und zum Erkennen von Objekten (195) in der dreidimensional erfassten Szene (190), das Sensorsystem (100) aufweisend eine Beleuchtungseinrichtung (130) zum Beleuchten der Szene (190) mit Beleuchtungslicht (131); eine Messeinrichtung (110) zum Empfangen von Messlicht (196), welches zumindest teilweise von zumindest einem in der Szene (190) enthaltenen Objekt (195) zurückgestreutes Beleuchtungslicht (196) ist, und zum Messen von Distanzen zwischen dem Sensorsystem (100) und dem zumindest einen Objekt (195) basierend auf einer Lichtlaufzeit des Beleuchtungslichts (131) und des Messlichts (195); eine der Messeinrichtung (110) informationstechnisch nachgeschaltete Datenverarbeitungseinrichtung (150) zum Ermitteln einer dreidimensionalen Charakteristik der Szene (190) basierend auf den gemessenen Distanzen; und einen Datenspeicher (160), welcher informationstechnisch mit der Datenverarbeitungseinrichtung (150) gekoppelt ist und in welchem zumindest eine Beschreibung von zumindest einem Referenzobjekt hinterlegt ist; wobei die Datenverarbeitungseinrichtung (150) programmtechnisch eingerichtet ist (i) zum Erkennen zumindest eines Teilbereiches (295a-e) des Objekts (195); (ii) falls lediglich ein solcher Teilbereich (295a-e) erkannt wurde, zum Vergleichen des erkannten Teilbereiches (295a-e) mit der zumindest einen Beschreibung; und (iii) falls bei dem Vergleichen eine Übereinstimmung zwischen dem erkannten Teilbereich (295a-e) und einem Referenzteilbereich eines von dem zumindest einen Referenzobjekt festgestellt wird, zum Identifizieren des Objekts (195) als ein dem entsprechenden zumindest einen Referenzobjekt entsprechendes Objekt (195).
  2. Sensorsystem (100) gemäß dem vorangehenden Anspruch, wobei die Datenverarbeitungseinrichtung (150) programmtechnisch ferner eingerichtet ist (iv) falls bei dem Vergleichen keine Übereinstimmung zwischen dem erkannten Teilbereich (295a-295e) und einem Referenzteilbereich eines von dem zumindest einen Referenzobjekt festgestellt wird, zum Identifizieren des Objekts (195) als ein unbekanntes Objekt.
  3. Sensorsystem (100) gemäß einem der vorangehenden Ansprüche, wobei die zumindest eine Beschreibung eine geometrische Beschreibung aufweist.
  4. Sensorsystem (100) gemäß einem der vorangehenden Ansprüche, wobei die Datenverarbeitungseinrichtung (150) programmtechnisch eingerichtet ist, das Vergleichen des erkannten Teilbereiches (295a-e) mit der zumindest einen Beschreibung auf der Basis von dreidimensionalen Daten durchzuführen.
  5. Sensorsystem (100) gemäß einem der vorangehenden Ansprüche, wobei die Beleuchtungseinrichtung (130) aufweist (a) eine als Laser ausgebildete Beleuchtungslichtquelle zum räumlichen Abtasten der Szene mit einem ausgesandten Laserstrahl-Beleuchtungslicht (131), (b) eine zumindest annähernd punktförmige Beleuchtungslichtquelle, (c) eine Mehrzahl von einzelnen Beleuchtungslichtquellen, die insbesondere individuell ansteuerbar und jeweils einem bestimmten Raumwinkelbereich der Szene zugeordnet sind, und/oder (d) eine flächige Beleuchtungslichtquelle, insbesondere mit einer über die Fläche nicht homogenen Leuchtintensität.
  6. Sensorsystem (100) gemäß einem der vorangehenden Ansprüche, wobei die Beleuchtungseinrichtung (130) betreibbar ist (i) in einem ersten Beleuchtung-Betriebsmodus zum Beleuchten der Szene (190) mit einer ersten Ausleuchtung und (ii) in einem zweiten Beleuchtung-Betriebsmodus zum Beleuchten der Szene (190) mit einer zweiten Ausleuchtung, wobei die Erkennungssicherheit für den zumindest einen Teilbereich (295a-295e) des Objektes (195) bei der zweiten Ausleuchtung größer ist als bei der ersten Ausleuchtung.
  7. Sensorsystem (100) gemäß dem vorangehenden Anspruch, ferner aufweisend eine Beleuchtungslicht-Steuereinrichtung (135) welche informationstechnisch mit der Datenverarbeitungseinrichtung (150) gekoppelt ist, wobei die Datenverarbeitungseinrichtung (150) programmtechnisch ferner eingerichtet ist, bei einem Erkennen eines Teilbereiches (295a-295e) des Objekts (195) die Beleuchtungslicht-Steuereinrichtung (135) zu veranlassen, von dem ersten Beleuchtung-Betriebsmodus in den zweiten Beleuchtung-Betriebsmodus umzuschalten.
  8. Sensorsystem (100) gemäß einem der vorangehenden Ansprüche, wobei die Messeinrichtung (110) aufweist einen Lichtempfänger (120), welcher betreibbar ist (i) in einem ersten Lichtempfang-Betriebsmodus zum Empfangen von Messlicht (196) mit einer ersten Empfindlichkeit und (ii) in einem zweiten Lichtempfang-Betriebsmodus zum Empfangen von Messlicht (196) mit einer zweiten Empfindlichkeit, wobei die Erkennungssicherheit für den zumindest einen Teilbereich (295a-295e) des Objektes (195) bei der zweiten Empfindlichkeit größer ist als bei der ersten Empfindlichkeit.
  9. Sensorsystem (100) gemäß dem vorangehenden Anspruch, ferner aufweisend eine Lichtempfänger-Steuereinrichtung (140), welche mit der Datenverarbeitungseinrichtung und mit dem Lichtempfänger (120) gekoppelt ist, wobei die Datenverarbeitungseinrichtung (150) programmtechnisch ferner eingerichtet ist, bei einem Erkennen eines Teilbereiches (295a-295e) des Objekts (195) die Lichtempfänger-Steuereinrichtung (140) zu veranlassen, von dem ersten Lichtempfang-Betriebsmodus in den zweiten Lichtempfang-Betriebsmodus umzuschalten.
  10. Sensorsystem (100) gemäß einem der beiden vorangehenden Ansprüche, wobei der Lichtempfänger (120; 320a, 320b) eine Vielzahl von Pixeln (322a) zum Empfangen des Messlichts (196) aufweist, wobei in einem der beiden Lichtempfang-Betriebsmodi zumindest zwei Pixel (322a) der Vielzahl von Pixeln (322a) zu einem übergeordneten Pixel (322b) zusammengefasst sind.
  11. Sensorsystem (100) gemäß einem der vorangehenden Ansprüche, wobei die Datenverarbeitungseinrichtung (150) ferner derart konfiguriert ist, dass eine Bedeckungscharakteristik einer Öffnung (184) durch zumindest einen Verschließkörper (186) steuerbar ist.
  12. Verfahren zum dreidimensionalen Erfassen einer Szene (190) und zum Erkennen von Objekten (195) in der dreidimensional erfassten Szene mittels eines Sensorsystems (100), insbesondere eines Sensorsystems gemäß einem der vorangehenden Ansprüche, das Verfahren aufweisend Beleuchten der Szene (190) mit Beleuchtungslicht (131) unter Verwendung einer Beleuchtungseinrichtung (130); Empfangen von Messlicht (196), welches zumindest teilweise von zumindest einem in der Szene (190) enthaltenen Objekt (195) zurückgestreutes Beleuchtungslicht (196) ist, unter Verwendung einer Messeinrichtung (110); Messen von Distanzen zwischen dem Sensorsystem (100) und dem zumindest einen Objekt (195) basierend auf einer Lichtlaufzeit des Beleuchtungslichts (131) und des Messlichts (195), unter Verwendung der Messeinrichtung (110); Ermitteln einer dreidimensionalen Charakteristik der Szene (190) basierend auf den gemessenen Distanzen unter Verwendung einer Datenverarbeitungseinrichtung (150), welche der Messeinrichtung (110) informationstechnisch nachgeschaltet ist; Erkennen zumindest eines Teilbereiches (295a-e) des Objekts (195) unter Verwendung der Datenverarbeitungseinrichtung (150), welche informationstechnisch mit einem Datenspeicher (160) gekoppelt ist, in welchem zumindest eine Beschreibung von zumindest einem Referenzobjekt hinterlegt ist; falls lediglich ein solcher Teilbereich (295a-e) erkannt wurde, Vergleichen des erkannten Teilbereiches (295a-e) mit der zumindest einen Beschreibung; und falls bei dem Vergleichen eine Übereinstimmung zwischen dem erkannten Teilbereich (295a-e) und einem Referenzteilbereich eines von dem zumindest einem Referenzobjekt festgestellt wurde, Identifizieren des Objekts (195) als ein dem entsprechenden zumindest einen Referenzobjekt entsprechendes Objekt (195).
  13. Verfahren gemäß dem vorangehenden Anspruch, wobei das Objekt (195) ein sich in der Szene bewegendes Objekt ist.
  14. Verfahren gemäß einem der beiden vorangehenden Ansprüche, wobei das Objekt (195) ein Lebewesen ist, insbesondere ein Mensch.
  15. Verwendung eines Sensorsystems (100) gemäß einem der vorangehenden Ansprüche 1 bis 11 für ein Steuern einer Bedeckungscharakteristik einer von einem Objekt (195) zu passierenden Öffnung (184) durch zumindest einen Verschließkörper (186).
  16. Verwendung gemäß dem vorangehenden Anspruch, wobei die Öffnung (184) ein Eingang oder ein Ausgang ist, insbesondere ein Notausgang in einem Gebäude.
  17. Verwendung gemäß einem der beiden vorangehenden Ansprüche, wobei das Objekt (195) eine Person oder ein Fahrzeug ist.
DE102019112339.9A 2019-05-10 2019-05-10 Identifizierung eines Objekts basierend auf einer Erkennung eines Teils des Objekts und auf Beschreibungsdaten von einem Referenzobjekt Pending DE102019112339A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102019112339.9A DE102019112339A1 (de) 2019-05-10 2019-05-10 Identifizierung eines Objekts basierend auf einer Erkennung eines Teils des Objekts und auf Beschreibungsdaten von einem Referenzobjekt
PCT/EP2020/061967 WO2020229190A1 (de) 2019-05-10 2020-04-29 Identifizierung eines objekts basierend auf einer erkennung eines teils des objekts und auf beschreibungsdaten von einem referenzobjekt

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019112339.9A DE102019112339A1 (de) 2019-05-10 2019-05-10 Identifizierung eines Objekts basierend auf einer Erkennung eines Teils des Objekts und auf Beschreibungsdaten von einem Referenzobjekt

Publications (1)

Publication Number Publication Date
DE102019112339A1 true DE102019112339A1 (de) 2020-11-12

Family

ID=70482646

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019112339.9A Pending DE102019112339A1 (de) 2019-05-10 2019-05-10 Identifizierung eines Objekts basierend auf einer Erkennung eines Teils des Objekts und auf Beschreibungsdaten von einem Referenzobjekt

Country Status (2)

Country Link
DE (1) DE102019112339A1 (de)
WO (1) WO2020229190A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114383555A (zh) * 2021-12-31 2022-04-22 西朗门业(苏州)有限公司 一种电动门封控制方法及电动门封控制装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2827175A2 (de) * 2013-07-12 2015-01-21 Princeton Optronics, Inc. Plane 2D-VSCEL-Quelle für 3D-Darstellung
WO2017200896A2 (en) * 2016-05-18 2017-11-23 James O'keeffe A dynamically steered lidar adapted to vehicle shape
WO2018064745A1 (en) * 2016-10-03 2018-04-12 Sensotech Inc. Time of flight (tof) based detecting system for an automatic door

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
PL1619469T3 (pl) * 2004-07-22 2008-05-30 Bea Sa Urządzenie skanera świetlnego do wykrywania obiektów dookoła automatycznych drzwi
DE102010033818A1 (de) * 2010-08-09 2012-02-09 Dorma Gmbh + Co. Kg Sensor
EP2453252B1 (de) 2010-11-15 2015-06-10 Cedes AG Energiespar-3D-sensor
US9134114B2 (en) * 2013-03-11 2015-09-15 Texas Instruments Incorporated Time of flight sensor binning

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2827175A2 (de) * 2013-07-12 2015-01-21 Princeton Optronics, Inc. Plane 2D-VSCEL-Quelle für 3D-Darstellung
WO2017200896A2 (en) * 2016-05-18 2017-11-23 James O'keeffe A dynamically steered lidar adapted to vehicle shape
WO2018064745A1 (en) * 2016-10-03 2018-04-12 Sensotech Inc. Time of flight (tof) based detecting system for an automatic door

Also Published As

Publication number Publication date
WO2020229190A1 (de) 2020-11-19

Similar Documents

Publication Publication Date Title
EP1159636B1 (de) Ortsauflösendes abstandsmesssystem
EP1794619B1 (de) Vorrichtung zur optischen überwachung von raumbereichen
WO2020229186A1 (de) 3D SENSORSYSTEM, BETREIBBAR IN VERSCHIEDENEN BETRIEBSMODI IN ABHÄNGIGKEIT EINES BETRIEBSZUSTANDES EINES VERSCHLIEßKÖRPERS
DE102013100521A1 (de) Sensoranordnung zur Erfassung von Bediengesten an Fahrzeugen
DE102018115274A1 (de) Überwachungsvorrichtung und Verfahren zum Überwachen eines Türbereichs einer Fahrzeugtür für ein Fahrzeug und Türsystem mit einer Überwachungsvorrichtung
EP3311190A1 (de) Sensorsystem einer sensoreinrichtung eines kraftfahrzeugs
DE102005011116B4 (de) Vorrichtung zur Ansteuerung und/oder Überwachung eines Flügels
EP3220164A1 (de) Verfahren zum betreiben eines abstandsmessenden überwachungssensors und überwachungssensor
WO2020229190A1 (de) Identifizierung eines objekts basierend auf einer erkennung eines teils des objekts und auf beschreibungsdaten von einem referenzobjekt
WO2019115561A1 (de) Sensorsystem zum dreidimensionalen erfassen einer szene mit verschiedenen photonenakkumulationen
DE102014205282B4 (de) Vorrichtung zum Öffnen oder Schließen einer Öffnung eines Fahrzeugs
WO2020229189A1 (de) Tof sensorsystem mit einer beleuchtungseinrichtung mit einem array von einzellichtquellen
DE102006010990B4 (de) Sicherheitssystem
EP0935045A2 (de) Verfahren und Vorrichtung zur Ansteuerung und/oder Überwachung eines motorisch angetriebenen Flügels
WO2019115558A1 (de) 3d sensorsystem mit einer freiformoptik
DE102017129654A1 (de) 3D Szenenerfassung basierend auf Lichtlaufzeiten und einem charakteristischen Merkmal von erfassten elektromagnetischen Wellen
EP3724601B1 (de) Abstandsermittlung basierend auf verschiedenen tiefenschärfebereichen bei unterschiedlichen fokuseinstellungen eines objektivs
DE102013018800A1 (de) Verfahren und Vorrichtung zum optischen Bestimmen von Abständen zu Objekten in einem Überwachungsbereich, insbesondere in einem Überwachungsbereich von automatischen Türen
DE102020201999A1 (de) Verfahren zum Erkennen und Klassifizieren von Objekten und Fahrzeug-Türsystem
EP3724677A1 (de) 3d sensorsystem mit einer von einem raumwinkel abhängigen szenenbeleuchtung
DE102017129663A1 (de) Sensorsystem mit einer Lichtfeldkamera zum Bestimmen der Charakteristik einer Szene
WO2018202426A1 (de) Senderoptik für ein lidar-system, lidar-system und arbeitsvorrichtung
DE102013013778B4 (de) Tor mit einer Detektionseinrichtung sowie ein Verfahren zur Anwendung der Detektionseinrichtung bei einem Tor
EP4265874A1 (de) Verfahren zur steuerung von zwei zueinander beabstandeten türanlagen
DE102022129203A1 (de) Vorrichtung zum Erfassen der Kontur einer Öffnung und zum Erkennen einer Einklemmgefahr

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication