DE102022112332A1 - Method and detection device for detecting a person in an observation area and vehicle - Google Patents

Method and detection device for detecting a person in an observation area and vehicle Download PDF

Info

Publication number
DE102022112332A1
DE102022112332A1 DE102022112332.4A DE102022112332A DE102022112332A1 DE 102022112332 A1 DE102022112332 A1 DE 102022112332A1 DE 102022112332 A DE102022112332 A DE 102022112332A DE 102022112332 A1 DE102022112332 A1 DE 102022112332A1
Authority
DE
Germany
Prior art keywords
person
observation area
measurement signals
thermal image
lidar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022112332.4A
Other languages
German (de)
Inventor
Stefan Milz
Ashwanth Ammapalayam Ravichandran
Sukumar Karthigeyan
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Spleenlab GmbH
Original Assignee
Spleenlab GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Spleenlab GmbH filed Critical Spleenlab GmbH
Priority to DE102022112332.4A priority Critical patent/DE102022112332A1/en
Publication of DE102022112332A1 publication Critical patent/DE102022112332A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4029Pedestrians
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/35Data fusion

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Electromagnetism (AREA)
  • Human Computer Interaction (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Detektieren einer Person in einem Beobachtungsbereich mittels einer Detektionsvorrichtung. Hierbei ist Folgendes vorgesehen: Bereitstellen einer Detektionsvorrichtung (2), die eine erste Messeinrichtung (3) mit einer Wärmebildsensoreinrichtung, eine zweite Messeinrichtung (4) mit einem Lidar-Messeinrichtung sowie eine Auswerteinrichtung aufweist, welche mit der ersten und der zweiten Messeinrichtung (3, 4) verbunden und eingerichtet ist, von der ersten und der zweiten Messeinrichtung (3, 4) erfasste Messsignale zum Detektieren einer Person (1) zu verarbeiten; Erfassen von Wärmebildsignalen für einen Beobachtungsbereich (6) mittels der Wärmebildsensoreinrichtung, wobei die Wärmebildsignale zweidimensionale Wärmebildaufnahmen repräsentieren; Erfassen von Lidar-Messsignalen für den Beobachtungsbereich (6) mittels der Lidar-Messeinrichtung; Bestimmen von fusionierten Messsignalen mittels einer Messsignalfusion für die Wärmebildsignale und die Lidar-Messsignale mit Hilfe der Auswerteinrichtung (5); Bestimmen der Anwesenheit der Person (1) im Beobachtungsbereich (6) mittels Auswerten der fusionierten Messsignale mit Hilfe der Auswerteinrichtung (5) und Bereitstellen von Signaldaten, welche die Anwesenheit der Person (1) im Beobachtungsbereich (6) anzeigen, an einem Datenausgang der Auswerteeinrichtung (5). Weiterhin sind eine Detektionsvorrichtung (2) zum Detektieren einer Person (1) in einem Beobachtungsbereich (6) sowie ein Fahrzeug (8) geschaffen.The invention relates to a method for detecting a person in an observation area using a detection device. The following is provided here: provision of a detection device (2) which has a first measuring device (3) with a thermal image sensor device, a second measuring device (4) with a lidar measuring device and an evaluation device which is connected to the first and second measuring devices (3, 4) is connected and set up to process measurement signals detected by the first and second measuring devices (3, 4) for detecting a person (1); Detecting thermal image signals for an observation area (6) by means of the thermal image sensor device, the thermal image signals representing two-dimensional thermal images; Detecting lidar measurement signals for the observation area (6) using the lidar measuring device; Determining fused measurement signals by means of a measurement signal fusion for the thermal image signals and the lidar measurement signals with the aid of the evaluation device (5); Determining the presence of the person (1) in the observation area (6) by evaluating the fused measurement signals with the aid of the evaluation device (5) and providing signal data which indicate the presence of the person (1) in the observation area (6) at a data output of the evaluation device (5). Furthermore, a detection device (2) for detecting a person (1) in an observation area (6) and a vehicle (8) are created.

Description

Die Erfindung betrifft ein Verfahren und eine Detektionsvorrichtung zum Detektieren einer Person in einem Beobachtungsbereich sowie ein Fahrzeug.The invention relates to a method and a detection device for detecting a person in an observation area and a vehicle.

Hintergrundbackground

Das Erfassen oder Detektieren einer Person in einem Beobachtungsbereich kann in Verbindung mit unterschiedlichen Anwendungen vorgesehen sein, beispielsweise zur Vermeidung von Gefahrensituationen für die Person. So kann vorgesehen sein, an die Person Warnsignale auszugeben, wenn für diese eine Anwesenheit in einem Beobachtungsbereich festgestellt wird, also einem überwachten räumlichen Bereich. Alternativ oder ergänzend kann vorgesehen sein, auf das Detektieren der Person im Beobachtungsbereich ein Fahrzeug, welches sich in den Beobachtungsbereich hinein oder in diesem bewegt, so zu steuern, dass eine mögliche Kollision mit der erfassten Person vermieden wird.Detecting or detecting a person in an observation area can be provided in connection with different applications, for example to avoid dangerous situations for the person. It can thus be provided that warning signals are issued to the person if their presence is detected in an observation area, i.e. a monitored spatial area. Alternatively or additionally, it can be provided that upon detecting the person in the observation area, a vehicle that moves into or within the observation area is controlled in such a way that a possible collision with the detected person is avoided.

Unterschiedliche Sensor- oder Messeinrichtungen wurden vorgeschlagen, um Messsignale zu erfassen, die Hinweise auf ein Objekt in einem Bereich geben können. Es besteht Bedarf, Genauigkeit und Zuverlässigkeit der Personenerkennung zu verbessern.Different sensor or measuring devices have been proposed to capture measurement signals that can provide information about an object in an area. There is a need to improve the accuracy and reliability of person detection.

ZusammenfassungSummary

Aufgabe der Erfindung ist es, ein Verfahren und eine Detektionsvorrichtung zum verbesserten Detektieren einer Person in einem Beobachtungsbereich sowie ein Fahrzeug anzugeben, mit denen das Erfassen einer oder mehrerer Personen in dem Beobachtungsbereich mit erhöhter Genauigkeit und verbesserter Zuverlässigkeit ermöglicht wird.The object of the invention is to provide a method and a detection device for improved detection of a person in an observation area and a vehicle with which the detection of one or more people in the observation area is made possible with increased accuracy and improved reliability.

Zur Lösung sind ein Verfahren und eine Detektionsvorrichtung zum Detektieren einer Person in einem Beobachtungsbereich nach den unabhängigen Ansprüchen 1 und 14 geschaffen. Weiterhin ist ein Fahrzeug nach dem nebengeordneten Anspruch 15 vorgesehen. Ausgestaltungen sind Gegenstand von abhängigen Unteransprüchen.To solve this, a method and a detection device for detecting a person in an observation area according to independent claims 1 and 14 are created. Furthermore, a vehicle according to independent claim 15 is provided. Refinements are the subject of dependent subclaims.

Nach einem Aspekt ist ein Verfahren zum Detektieren einer Person in einem Beobachtungsbereich mittels einer Detektionsvorrichtung geschaffen, welches Folgendes aufweist: Bereitstellen einer Detektionsvorrichtung, die eine erste Messeinrichtung mit einer Wärmebildsensoreinrichtung, eine zweite Messeinrichtung mit einem Lidar-Messeinrichtung sowie eine Auswerteinrichtung aufweist, welche mit der ersten und der zweiten Messeinrichtung verbunden und eingerichtet ist, von der ersten und der zweiten Messeinrichtung erfasste Messsignale zum Detektieren einer Person zu verarbeiten; Erfassen von Wärmebildsignalen für einen Beobachtungsbereich mittels der Wärmebildsensoreinrichtung, wobei die Wärmebildsignale zweidimensionale Wärmebildaufnahmen repräsentieren; Erfassen von Lidar-Messsignalen für den Beobachtungsbereich mittels der Lidar-Messeinrichtung; Bestimmen von fusionierten Messsignalen mittels einer Messsignalfusion für die Wärmebildsignale und die Lidar-Messsignale mit Hilfe der Auswerteinrichtung; Bestimmen der Anwesenheit einer Person im Beobachtungsbereich mittels Auswerten der fusionierten Messsignale mit Hilfe der Auswerteinrichtung und Bereitstellen von Signaldaten, welche die Anwesenheit der Person im Beobachtungsbereich anzeigen, an einem Datenausgang der Auswerteeinrichtung.According to one aspect, a method for detecting a person in an observation area by means of a detection device is created, which has the following: providing a detection device which has a first measuring device with a thermal image sensor device, a second measuring device with a lidar measuring device and an evaluation device which is connected to the connected to the first and second measuring devices and set up to process measurement signals detected by the first and second measuring devices for detecting a person; Detecting thermal image signals for an observation area using the thermal image sensor device, the thermal image signals representing two-dimensional thermal images; Acquiring lidar measurement signals for the observation area using the lidar measuring device; Determining fused measurement signals by means of a measurement signal fusion for the thermal image signals and the lidar measurement signals using the evaluation device; Determining the presence of a person in the observation area by evaluating the fused measurement signals with the aid of the evaluation device and providing signal data which indicate the presence of the person in the observation area at a data output of the evaluation device.

Nach einem weiteren Aspekt ist eine Detektionsvorrichtung zum Detektieren einer Person in einem Beobachtungsbereich geschaffen, die Folgendes aufweist: eine erste Messeinrichtung mit einer Wärmebildsensoreinrichtung, eine zweite Messeinrichtung mit einem Lidar-Messeinrichtung sowie einer Auswerteinrichtung, welche mit der ersten und der zweiten Messeinrichtung verbunden und eingerichtet ist, von der ersten und der zweiten Messeinrichtung erfasste Messsignale zum Detektieren einer Person zu verarbeiten. Die Detektionsvorrichtung ist zum Detektieren einer Person in dem Beobachtungsbereich für Folgendes eingerichtet: Erfassen von Wärmebildsignalen für einen Beobachtungsbereich mittels der Wärmebildsensoreinrichtung, wobei die Wärmebildsignale zweidimensionale Wärmebildaufnahmen repräsentieren; Erfassen von Lidar-Messsignalen für den Beobachtungsbereich mittels der Lidar-Messeinrichtung; Bestimmen von fusionierten Messsignalen mittels einer Messsignalfusion für die Wärmebildsignale und die Lidar-Messsignale mit Hilfe der Auswerteinrichtung; Bestimmen der Anwesenheit einer Person im Beobachtungsbereich mittels Auswerten der fusionierten Messsignale mit Hilfe der Auswerteinrichtung und Bereitstellen von Signaldaten, welche die Anwesenheit der Person im Beobachtungsbereich anzeigen, an einem Datenausgang der Auswerteeinrichtung.According to a further aspect, a detection device for detecting a person in an observation area is created, which has the following: a first measuring device with a thermal image sensor device, a second measuring device with a lidar measuring device and an evaluation device, which is connected and set up with the first and second measuring devices is to process measurement signals detected by the first and second measuring devices to detect a person. The detection device is set up to detect a person in the observation area for the following: detecting thermal image signals for an observation area by means of the thermal image sensor device, the thermal image signals representing two-dimensional thermal images; Acquiring lidar measurement signals for the observation area using the lidar measuring device; Determining fused measurement signals by means of a measurement signal fusion for the thermal image signals and the lidar measurement signals using the evaluation device; Determining the presence of a person in the observation area by evaluating the fused measurement signals with the aid of the evaluation device and providing signal data which indicate the presence of the person in the observation area at a data output of the evaluation device.

Weiterhin ist ein Fahrzeug, welches als Land-, See- und / oder Luftfahrzeug ausgeführt ist, mit der Detektionsvorrichtung geschaffen.Furthermore, a vehicle designed as a land, sea and/or aircraft is created with the detection device.

Es ist vorgesehen, einerseits Wärmebildsignale mit Hilfe der ersten Messeinrichtung und andererseits Lidar-Messsignale mit Hilfe der zweiten Messeinrichtung für den räumlichen Beobachtungsbereich, welcher hinsichtlich der möglichen Anwesenheit einer oder mehrerer Personen überwacht werden soll, zu erfassen. Mit Hilfe der Auswerteeinrichtung werden die Wärmebildsignale, welche zweidimensionale Wärmebildaufnahme für den Beobachtungsbereich repräsentieren, und die Lidar-Messsignale miteinander fusioniert, insbesondere derart, dass für zumindest einen Teil der Lidar-Messsignale eine Zuordnung zwischen Lidar-Messsignal und einem jeweiligem Wärmebildsignal ausgeführt wird. Mittels Auswerten der derart fusionierten Messsignale wird sodann bestimmt, ob im Beobachtungsbereich zumindest eine Person anwesend ist oder nicht. Beim Bestimmen der Anwesenheit einer Person werden Signaldaten erzeugt und bereitgestellt, welche die Anwesenheit der Personen im Beobachtungsbereich anzeigen. Die Signaldaten werden von der Auswerteeinrichtung an einem Datenausgang bereitgestellt, so dass sie wahlweise abgerufen oder von der Auswerteeinrichtung übertragen werden können, beispielsweise an eine Steuereinrichtung oder eine weitere Auswerteeinrichtung. Dort können die Signaldaten dann ausgewertet werden, um hierauf wahlweise eine oder mehrere Aktionen auszulösen, wozu beispielsweise die Ausgabe eines Warn- oder Informationshinweises gehören kann, insbesondere an die Person.It is provided, on the one hand, to record thermal image signals using the first measuring device and, on the other hand, to record lidar measurement signals using the second measuring device for the spatial observation area, which is to be monitored with regard to the possible presence of one or more people. With the help of the evaluation device, the thermal image signals, which represent two-dimensional thermal image recordings for the observation area, and the lidar measurement signals are merged with one another, in particular in such a way that an association between the lidar measurement signal and a respective thermal image signal is carried out for at least some of the lidar measurement signals. By evaluating the measurement signals merged in this way, it is then determined whether at least one person is present in the observation area or not. When determining the presence of a person, signal data is generated and provided which indicates the presence of the people in the observation area. The signal data are provided by the evaluation device at a data output, so that they can either be called up or transmitted by the evaluation device, for example to a control device or another evaluation device. The signal data can then be evaluated there in order to optionally trigger one or more actions, which can include, for example, the issuance of a warning or information notice, in particular to the person.

Die Verwendung sowohl der Wärmebildsignale wie auch der Lidar-Messsignale in den fusionierten Messsignalen unterstützt das Bestimmen der Anwesenheit der Person im Beobachtungsbereich mit hoher Genauigkeit und Zuverlässigkeit.The use of both the thermal image signals and the lidar measurement signals in the fused measurement signals supports determining the person's presence in the observation area with high accuracy and reliability.

Beim Bestimmen der fusionierten Messsignale und der Anwesenheit der Person im Beobachtungsbereich kann Folgendes vorgesehen sein: Bestimmen einer dreidimensionalen Punktwolke für die Lidar-Messsignale, in welcher den Punkten jeweils ein oder mehrere Lidar-Messsignale zugeordnet sind; Projizieren der Wärmebildsignale auf die dreidimensionalen Punktwolke für die Lidar-Messsignale, um die fusionierten Messsignale zu bestimmen; und Bestimmen der Anwesenheit der Person im Beobachtungsbereich mittels Auswerten der auf die dreidimensionale Punktwolke für die Lidar-Messsignale projizierten Wärmebildsignale. Hierdurch werden die dreidimensionalen Messsignale der Lidar-Messung mit den zweidimensionalen Wärmebildern kombiniert (fusioniert), was eine verbesserte Auswertung der erfassten Messwerte mit höherer Zuverlässigkeit unterstützt. Mittels des Projizierens oder Abbildens der (zweidimensionalen) Wärmebildsignale auf die dreidimensionale Punktwolke erfolgt eine Zuordnung zwischen den Wärmebildsignalen und den Lidar-Messsignalen. Beispielsweise werden einem oder mehreren Pixeln der Wärmebildaufnahmen ein oder mehrere Punkte im dreidimensionalen Raum der Punktwolke zugeordnet.When determining the fused measurement signals and the presence of the person in the observation area, the following can be provided: determining a three-dimensional point cloud for the lidar measurement signals, in which one or more lidar measurement signals are assigned to the points; Projecting the thermal image signals onto the three-dimensional point cloud for the lidar measurement signals to determine the merged measurement signals; and determining the presence of the person in the observation area by evaluating the thermal image signals projected onto the three-dimensional point cloud for the lidar measurement signals. As a result, the three-dimensional measurement signals from the lidar measurement are combined (fused) with the two-dimensional thermal images, which supports improved evaluation of the recorded measured values with greater reliability. By projecting or mapping the (two-dimensional) thermal image signals onto the three-dimensional point cloud, an association is made between the thermal image signals and the lidar measurement signals. For example, one or more points in the three-dimensional space of the point cloud are assigned to one or more pixels of the thermal images.

Beim Bestimmen der Anwesenheit der Person kann für die Person eine Position im Beobachtungsbereich bestimmt werden. Ausgehend von den fusionierten Messsignalen erfolgt hier eine Positionsbestimmung für die Person in dem Beobachtungsbereich, wodurch eine Positionierung der Person im Bobachtungsbereich bestimmbar ist.When determining the person's presence, a position in the observation area can be determined for the person. Based on the fused measurement signals, the position of the person in the observation area is determined, whereby a positioning of the person in the observation area can be determined.

Beim Bestimmen der Position kann eine Relativposition der Person zur ersten und / oder zweiten Messeinrichtung bestimmt werden. Sind die erste und / oder die zweite Messeinrichtung an einem Objekt aufgenommen oder angeordnet, beispielsweise in einem Fahrzeug, erfolgt die Bestimmung der Relativposition relativ zu dem Objekt.When determining the position, a relative position of the person to the first and/or second measuring device can be determined. If the first and/or the second measuring device is recorded or arranged on an object, for example in a vehicle, the relative position is determined relative to the object.

Beim Bestimmen der Position kann ein Abstand zwischen der ersten und / oder der zweiten Messeinrichtung und der Person bestimmt werden. Bei Anordnung der ersten und / oder der zweiten Messeinrichtung in einem Fahrzeug kann so der Abstand zwischen Fahrzeug und detektierter Person bestimmt werden.When determining the position, a distance between the first and/or the second measuring device and the person can be determined. When the first and/or the second measuring device is arranged in a vehicle, the distance between the vehicle and the detected person can be determined.

Beim Bestimmen der Position kann eine räumliche Position für die Person im Beobachtungsbereich bestimmt werden.When determining the position, a spatial position for the person in the observation area can be determined.

Für die Person kann eine Bewegungstrajektorie im Beobachtungsbereich bestimmt werden. Das Bestimmen einer Bewegungstrajektorie für die Person im Beobachtungsbereich ermöglicht wahlweise einer Analyse des dynamischen Verhaltens (Bewegens) der Person im Beobachtungbereich. Aus einer Bewegungstrajektorie für die Person für die Vergangenheit kann wahlweise eine Bestimmung einer Bewegungstrajektorie für eine mögliche momentane oder zukünftige Bewegung der Person im Beobachtungsbereich ausgeführt werden. So kann die zukünftige Bewegungstrajektorie als Fortsetzung der Bewegungstrajektorie für die Vergangenheit bestimmt werden, sei es zum Beispiel entlang einer geraden oder einer gekrümmten Bewegungsbahn.A movement trajectory in the observation area can be determined for the person. Determining a movement trajectory for the person in the observation area optionally enables an analysis of the dynamic behavior (movement) of the person in the observation area. From a movement trajectory for the person in the past, a determination of a movement trajectory for a possible current or future movement of the person in the observation area can optionally be carried out. Thus, the future movement trajectory can be determined as a continuation of the movement trajectory for the past, be it, for example, along a straight or a curved movement path.

Beim Bestimmen der fusionierten Messsignale kann den Punkten der dreidimensionalen Punktwolke jeweils ein Helligkeitswert zugeordnet werden, welcher aus einem dem Punkt mittels der Projektion zugeordneten Wärmebildsignal abgeleitet ist. Den Punkten der dreidimensionalen Punktwolke wird hierbei zum Beispiel in Abhängigkeit von der Helligkeit eines dem jeweiligen Punkt zugeordneten Pixels aus den Wärmebildern ein Helligkeitswert zugeordnet.When determining the merged measurement signals, the points of the three-dimensional point cloud can each be assigned a brightness value, which is derived from a thermal image signal assigned to the point by means of the projection. The points of the three-dimensional point cloud are assigned a brightness value from the thermal images, for example depending on the brightness of a pixel assigned to the respective point.

Beim Bestimmen der Anwesenheit der Person kann im Beobachtungsbereich weiterhin Folgendes vorgesehen sein: Ausführen einer Clusterbildung, bei der mehrere nebeneinanderliegende Punkte der dreidimensionalen Punktwolke zu einem oder mehreren Clustern zusammengeführt werden, für die bestimmt wurde, dass die mehreren nebeneinanderliegenden Punkte mit einer vorgegebenen Wahrscheinlichkeit einem einzelnen Objekt zuzuordnen sind; und Ausführen einer Clusteranalyse, bei der das eine oder die mehreren Cluster hinsichtlich jeweiliger Clustereigenschaften untersucht werden. Mittels Bilden der Cluster und deren Analyse können Teile oder Bereiche der dreidimensionalen Punktwolke hinsichtlich ihrer Clustereigenschaften analysiert werden, beispielsweise zum Bestimmen eines Maßes inwiefern ein Cluster die Anwesenheit der Person anzeigt oder nicht. Bei der Clusteranalyse können ein oder mehrere der folgenden Clustereigenschaften untersucht oder analysiert werden: Mittelwert der Helligkeitswerte von Punkten des Clusters; Verteilung der Helligkeit (Temperatur) über das Cluster; Clustergröße und höchster / tiefster Punkt eines Clusters (Höhe über Bezugsebene, beispielweise Erdboden). Ausgehend von der Clusteranalyse kann vorgesehen sein, für die Person ein oder mehrere zusätzliche Eigenschaften zu bestimmen, insbesondere ob die Person sitzt, steht oder läuft und / oder eine Unterscheidung der Person von anderen Lebewesen.When determining the presence of the person, the following can also be provided in the observation area: carrying out a cluster formation, in which several adjacent points of the three-dimensional point cloud are merged into one or more clusters, for which it was determined that the several adjacent points belong to a single one with a predetermined probability Assign object nen are; and performing a cluster analysis in which the one or more clusters are examined for respective cluster properties. By forming the clusters and analyzing them, parts or areas of the three-dimensional point cloud can be analyzed with regard to their cluster properties, for example to determine the extent to which a cluster indicates the presence of the person or not. In cluster analysis, one or more of the following cluster properties can be examined or analyzed: average of the brightness values of points of the cluster; Distribution of brightness (temperature) across the cluster; Cluster size and highest/lowest point of a cluster (height above reference plane, e.g. ground). Based on the cluster analysis, one or more additional properties can be determined for the person, in particular whether the person is sitting, standing or walking and / or a distinction between the person and other living beings.

Das Detektieren der Person in dem Beobachtungsbereich kann als eine (rein) deterministische Objekterkennung frei von Verfahren der künstlichen Intelligenz ausgeführt werden. Das Bestimmen der Anwesenheit der Person im Beobachtungsbereich mittels der Messsignalauswertung erfolgt hier allein unter Verwendung der deterministischen Objekterkennung, welche die Messsignalfusion umfasst, aber ohne Verwendung von Verfahren der künstlichen Intelligenz.The detection of the person in the observation area can be carried out as a (purely) deterministic object recognition without artificial intelligence methods. Determining the presence of the person in the observation area by means of the measurement signal evaluation is carried out here solely using deterministic object recognition, which includes measurement signal fusion, but without the use of artificial intelligence methods.

Die erste Messeinrichtung und die zweite Messeinrichtung können in einem Fahrzeug bereitgestellt werden, welches als ein Land-, See- und / oder Luftfahrzeug ausgeführt ist, und eine Bewegung des Fahrzeugs kann mittels einer Steuereinrichtung des Fahrzeugs unter Berücksichtigung der Detektion der Person im Beobachtungsbereich gesteuert werden. Die Steuereinrichtung des Fahrzeugs kann über den Datenausgang der Auswerteeinrichtung der Detektionsvorrichtung die Signaldaten empfangen, welche die Anwesenheit der Person im Beobachtungbereich anzeigen, um hiervon ausgehend dann die Bewegung des Fahrzeugs zu steuern. Im Fall der Anwesenheit einer Person im Beobachtungsbereich und einer möglichen Kollision entlang einer geplanten Bewegungstrajektorie des Fahrzeugs kann das Fahrzeug beispielsweise abgebremst oder gestoppt werden. Alternativ kann die Steuereinrichtung eine Umfahrung der detektierten Person bewirken.The first measuring device and the second measuring device can be provided in a vehicle which is designed as a land, sea and/or aircraft, and a movement of the vehicle can be controlled by means of a control device of the vehicle, taking into account the detection of the person in the observation area . The control device of the vehicle can receive the signal data, which indicate the presence of the person in the observation area, via the data output of the evaluation device of the detection device, in order to then control the movement of the vehicle based on this. In the case of the presence of a person in the observation area and a possible collision along a planned movement trajectory of the vehicle, the vehicle can, for example, be braked or stopped. Alternatively, the control device can cause the detected person to bypass.

Das Fahrzeug kann autonom gesteuert werden, und die autonome Steuerung kann mittels der Steuereinrichtung unter Berücksichtigung der Detektion der Person im Beobachtungsbereich ausgeführt werden.The vehicle can be controlled autonomously, and the autonomous control can be carried out by means of the control device taking into account the detection of the person in the observation area.

Mittels der Steuereinrichtung des Fahrzeugs kann eine geplante Bewegungstrajektorie des Fahrzeugs im Beobachtungsbereich und auf das Detektieren der Person in dem Beobachtungsbereich ein Sicherheitsmaß für das Bewegen des Fahrzeugs entlang der geplanten Bewegungstrajektorie bestimmt werden. Das Sicherheitsmaß kann zum Beispiel eine Wahrscheinlichkeit für eine mögliche Kollision zwischen dem Fahrzeug und der Person anzeigen, beispielweise auch beim Einparken des Fahrzeugs, wenn die Person als sich um Parkplatzbereich befindlich detektiert wird. Wenn die Wahrscheinlichkeit zum Beispiel einen vorgegebenen Schwellwert überschreitet, kann vorgesehen sein, dass die Steuereinrichtung des Fahrzeugs Maßnahmen zur Vermeidung der Kollision initiiert, beispielsweise das Fahrzeug abbremsen oder zum Stillstand bringen. Auch kann ein Warnsignal an der Fahrzeugführer ausgegeben werden.By means of the control device of the vehicle, a planned movement trajectory of the vehicle in the observation area and upon detecting the person in the observation area, a safety measure for moving the vehicle along the planned movement trajectory can be determined. The safety measure can, for example, indicate a probability of a possible collision between the vehicle and the person, for example when parking the vehicle if the person is detected as being in the parking area. For example, if the probability exceeds a predetermined threshold value, it can be provided that the control device of the vehicle initiates measures to avoid the collision, for example braking the vehicle or bringing it to a standstill. A warning signal can also be issued to the vehicle driver.

Bei den verschiedenen Ausführungsformen kann beim Auswerten der fusionierten Messsignale ein Schritt zum Filtern vorgesehen sein, bei dem Messsignale gelöscht oder entfernt werden, die als (definitiv) nicht zu einer Person gehörig bestimmt werden. Beispielsweise können auf diese Weise Punkte der dreidimensionalen Punktwolke aus dem weiteren Auswerteprozess entfernt oder gelöscht werden, für die bestimmt wurde, dass die Punkte mit einer vorgegebenen Sicherheit keine Person anzeigen können, beispielsweise weil die zugeordneten Helligkeitswerte der Punkte außerhalb eines Bereiches für Helligkeitswerte liegen, die potentiell die Anwesenheit einer Person anzeigen können.In the various embodiments, when evaluating the fused measurement signals, a filtering step can be provided in which measurement signals that are determined to (definitely) not belong to a person are deleted or removed. For example, in this way, points of the three-dimensional point cloud can be removed or deleted from the further evaluation process for which it was determined that the points cannot indicate a person with a predetermined certainty, for example because the assigned brightness values of the points lie outside a range for brightness values can potentially indicate the presence of a person.

In einem Beispiel kann ein Verfahren zum Detektieren einer Person in einem Beobachtungsbereich mittels einer Auswertevorrichtung vorgesehen sein, bei dem eine Auswerteeinrichtung mit einem oder mehreren Prozessoren bereitgestellt wird, die jeweils eingerichtet sind, Daten zu verarbeiten. In der Auswertevorrichtung ist Folgendes vorgesehen: Empfangen von Wärmebildsignalen für einen Beobachtungsbereich, wobei die Wärmebildsignale mittels einer Wärmebildsensoreinrichtung einer ersten Messeinrichtung zum Detektieren einer Person im Beobachtungsbereich erfasst wurden und zweidimensionale Wärmebildaufnahmen repräsentieren; Empfangen von Lidar-Messsignalen für den Beobachtungsbereich, wobei die Lidar-Messsignale mittels einer Lidar-Messeinrichtung einer zweiten Messeinrichtung zum Detektieren der Person im Beobachtungsbereich erfasst wurden; Bestimmen von fusionierten Messsignalen mittels einer Messsignalfusion für die Wärmebildsignale und die Lidar-Messsignale mit Hilfe der Auswerteinrichtung; Bestimmen der Anwesenheit einer Person im Beobachtungsbereich mittels Auswerten der fusionierten Messsignale und Bereitstellen von Signaldaten, welche die Anwesenheit der Person im Beobachtungsbereich anzeigen, an einem Datenausgang der Auswerteeinrichtung. Es kann eine Auswerteinrichtung vorgesehen sein, die mittels Software-Applikationen, die auf dem einen oder den mehreren Prozessoren laufen, eingerichtet ist, das vorangehend angegebene Verfahren zum Detektieren der Person im Beobachtungsbereich auszuführen.In one example, a method for detecting a person in an observation area by means of an evaluation device can be provided, in which an evaluation device with one or more processors is provided, each of which is set up to process data. The following is provided in the evaluation device: receiving thermal image signals for an observation area, the thermal image signals being detected by means of a thermal image sensor device of a first measuring device for detecting a person in the observation area and representing two-dimensional thermal image recordings; Receiving lidar measurement signals for the observation area, the lidar measurement signals being detected by means of a lidar measurement device of a second measurement device for detecting the person in the observation area; Determining fused measurement signals by means of a measurement signal fusion for the thermal image signals and the lidar measurement signals using the evaluation device; Determining the presence of a person in the observation area by evaluating the fused measurement signals and providing signal data that indicates the person's presence in the observation area Display observation area at a data output of the evaluation device. An evaluation device can be provided, which is set up to carry out the above-mentioned method for detecting the person in the observation area using software applications that run on the one or more processors.

Das Verfahren zum Detektieren der Person kann auf Basis der Messsignale von der ersten und der zweiten Messeinrichtung allein und abschließend ausgeführt werden, ohne dass es weiterer Messinformation bedarf.The method for detecting the person can be carried out solely and finally on the basis of the measurement signals from the first and second measuring devices, without the need for further measurement information.

Die vorangehend im Zusammenhang mit den verschiedenen Ausgestaltungen des Verfahrens zum Detektieren der Person im Beobachtungsbereich erläuterten Ausgestaltungen können in Verbindung mit der Detektionsvorrichtung und / oder dem Fahrzeug mit der Detektionsvorrichtung entsprechend vorgesehen sein.The configurations explained above in connection with the various configurations of the method for detecting the person in the observation area can be provided accordingly in connection with the detection device and / or the vehicle with the detection device.

Beschreibung von AusführungsbeispielenDescription of exemplary embodiments

Im Folgenden werden weitere Ausführungsbeispiele unter Bezugnahme auf Figuren einer Zeichnung erläutert. Hierbei zeigen:

  • 1 eine schematische Darstellung einer Anordnung mit einer Detektionsvorrichtung zum Detektieren einer Person in einem Beobachtungsbereich;
  • 2 eine schematische Darstellung für ein Verfahren zum Detektieren einer Person in einem Beobachtungbereich mittels der Detektionsvorrichtung und
  • 3 eine schematische Darstellung für ein Verfahren zum Detektieren einer Person in einem Beobachtungsbereich mittels der Detektionsvorrichtung, wobei eine Clusterbildung und -analyse bei der Messsignalauswertung angewendet wird.
Further exemplary embodiments are explained below with reference to figures in a drawing. Show here:
  • 1 a schematic representation of an arrangement with a detection device for detecting a person in an observation area;
  • 2 a schematic representation of a method for detecting a person in an observation area using the detection device and
  • 3 a schematic representation of a method for detecting a person in an observation area using the detection device, wherein cluster formation and analysis is used in the measurement signal evaluation.

1 zeigt eine schematische Darstellung für ein Verfahren zum Detektieren einer Person 1 mittels einer Detektionsvorrichtung 2, die bei dem gezeigten Ausführungsbeispiel eine erste Messeinrichtung 3 mit einer Wärmebildsensoreinrichtung, eine zweite Messeinrichtung 4 mit einer Lidar-Messeinrichtung sowie eine Auswerteeinrichtung 5 aufweist. Die Auswerteeinrichtung 5 ist mit der ersten und der zweiten Messeinrichtung 3, 4 funktional verbunden, insbesondere derart, dass die Auswerteeinrichtung 5 von der ersten und der zweiten Messeinrichtung 3, 4 Signaldaten empfangen kann, die von der ersten und der zweiten Messeinrichtung 3, 4 erfasste Messsignale zum Detektieren der Person 1 anzeigen. 1 shows a schematic representation of a method for detecting a person 1 by means of a detection device 2, which in the exemplary embodiment shown has a first measuring device 3 with a thermal image sensor device, a second measuring device 4 with a lidar measuring device and an evaluation device 5. The evaluation device 5 is functionally connected to the first and second measuring devices 3, 4, in particular in such a way that the evaluation device 5 can receive signal data from the first and second measuring devices 3, 4, which are recorded by the first and second measuring devices 3, 4 Display measurement signals for detecting person 1.

Die erste Messeinrichtung 3 ist mit einer Wärmebildsensoreinrichtung ausgeführt, welche eingerichtet ist, für einen Beobachtungsbereich 6 Wärmebildaufnahmen zu erfassen. Die Wärmebildsensoreinrichtung, insbesondere eine Wärmebildkamera, empfängt Infrarotstrahlung und erfasst damit eine Wärmebildaufnahme von Objekten, vorliegend von der Person 1 im Beobachtungsbereich 6. Typische Wärmebildkameras nutzen eine Spektralbereich zwischen etwa 3,5 bis etwa 15µm Wellenlänge der Infrarotstrahlung. Wärmebildsensoreinrichtungen sind als solche in verschiedenen Ausführungsformen bekannt.The first measuring device 3 is designed with a thermal image sensor device, which is set up to capture thermal images for an observation area 6. The thermal imaging sensor device, in particular a thermal imaging camera, receives infrared radiation and thereby captures a thermal image of objects, in this case the person 1 in the observation area 6. Typical thermal imaging cameras use a spectral range between approximately 3.5 to approximately 15 μm wavelength of the infrared radiation. Thermal image sensor devices are known as such in various embodiments.

Die zweite Messeinrichtung 4 ist mit einer Lidar-Messeinrichtung gebildet. Bei der Lidar-Messung handelt es sich um eine Anwendungsform des dreidimensionalen Laserscannens. Die Lidar-Messeinrichtung ermöglicht eine optische Abstands- und Geschwindigkeitsmessung. Lidar-Messeinrichtungen sind als solche in verschiedenen Ausführungsformen bekannt.The second measuring device 4 is formed with a lidar measuring device. Lidar measurement is an application of three-dimensional laser scanning. The lidar measuring device enables optical distance and speed measurement. Lidar measuring devices are known as such in various embodiments.

2 zeigt eine schematische Darstellung für ein Verfahren zum Detektieren der Person 1 im Beobachtungbereich 6 mittels der Detektionsvorrichtung 2. 2 shows a schematic representation of a method for detecting the person 1 in the observation area 6 using the detection device 2.

Während die erste Messeinrichtung 3 für den Beobachtungsbereich 6 zweidimensionale Wärmebildaufnahmen erfasst (Schritt 10), ermöglicht es die zweite Messeinrichtung 4, mit Hilfe der Lidar-Messeinrichtung dreidimensionale Entfernungs- oder Abstandsinformationen zu erfassen (Schritt 20). Die so gewonnenen Wärmebildsignale und Lidar-Messsignale werden mit Hilfe der Auswerteeinrichtung 5 zu fusionierten Messsignalen fusioniert (Schritt 30). Hierbei ist vorgesehen, die zweidimensionalen Wärmebildaufnahmen auf die dreidimensionale Punktwolke der Lidar-Messsignale abzubilden oder zu projizieren, derart, dass eine Zuordnung zwischen den Pixeln der Wärmebildaufnahmen und den Lidar-Messsignalen erfolgt. Mittels Auswerten der fusionierten Messsignale im Schritt 40 wird die Person 1 als anwesend im Beobachtungsbereich 6 bestimmt. Hierauf werden im Schritt 50 in der Auswerteeinrichtung 5 Signaldaten bereitgestellt, welche die Anwesenheit der Person 1 im Beobachtungsbereich 6 anzeigen.While the first measuring device 3 captures two-dimensional thermal images for the observation area 6 (step 10), the second measuring device 4 makes it possible to capture three-dimensional distance or distance information using the lidar measuring device (step 20). The thermal image signals and lidar measurement signals obtained in this way are merged into fused measurement signals using the evaluation device 5 (step 30). It is provided here to map or project the two-dimensional thermal image recordings onto the three-dimensional point cloud of the lidar measurement signals in such a way that an association occurs between the pixels of the thermal image recordings and the lidar measurement signals. By evaluating the merged measurement signals in step 40, person 1 is determined to be present in observation area 6. Then, in step 50, signal data is provided in the evaluation device 5, which indicates the presence of the person 1 in the observation area 6.

Die Signaldaten können über einen Datenausgang der Auswerteeinrichtung 5 ausgegeben werden, gemäß 1 beispielsweise an eine Steuereinrichtung 7, zum Beispiel eine Steuereinrichtung eines Fahrzeugs 8, welches als Land-, See- und / oder Luftfahrzeug ausgeführt sein kann. Die Steuereinrichtung 7 kann dann die Bewegung des Fahrzeugs 8 in den Beobachtungsbereich oder in diesem in Abhängigkeit von den Signaldaten steuern (Schritt 60).The signal data can be output via a data output of the evaluation device 5, according to 1 for example to a control device 7, for example a control device of a vehicle 8, which can be designed as a land, sea and / or aircraft. The control device 7 can then control the movement of the vehicle 8 into the observation area or within it depending on the signal data (step 60).

Es kann ergänzend vorgesehen sein, für die Person 1 Näheres zu deren Position im Beobachtungsbereich 6 zu bestimmen. Eine solche Positionsbestimmung kann zum Beispiel mit der Auswerteeinrichtung 5 durchgeführt werden. Im Rahmen der Positionsbestimmung kann zum Beispiel eine Relativposition der Person 1 zur ersten und / oder zweiten Messeinrichtung 3, 4 ermittelt werden. Sind die erste und die zweite Messeinrichtung 3, 4 in dem Fahrzeug 8 angeordnet, kann hierdurch eine Relativposition der Person 1 zu dem Fahrzeug 8 bestimmt werden. Alternativ oder ergänzend können eine räumliche Position der Person 1 und / oder ein Abstand der Person 1 zu der ersten und / oder der zweiten Messeinrichtung 3, 4 bestimmt werden.It can also be provided to determine the person 1's position in the observation area 6. Such a position determination can be carried out, for example, with the evaluation device 5. As part of the position determination, for example, a relative position of the person 1 to the first and / or second measuring device 3, 4 can be determined. If the first and second measuring devices 3, 4 are arranged in the vehicle 8, a relative position of the person 1 to the vehicle 8 can be determined. Alternatively or additionally, a spatial position of the person 1 and/or a distance of the person 1 to the first and/or the second measuring device 3, 4 can be determined.

3 zeigt eine schematische Darstellung für ein Verfahren zum Detektieren der Person 1 in dem Beobachtungsbereich 6, wobei nach der Messsignalfusion im Schritt 70 eine Clusterbildung und -analyse angewendet wird. Im Übrigen werden in 3 für gleiche Merkmale dieselben Bezugszeichen wie in 2 verwendet. 3 shows a schematic representation of a method for detecting the person 1 in the observation area 6, with cluster formation and analysis being applied after the measurement signal fusion in step 70. Incidentally, in 3 for the same features, the same reference numbers as in 2 used.

Die Clusterbildung kann vorsehen, mehrere nebeneinanderliegende Punkte der dreidimensionalen Punktwolke der Lidar-Messsignale (mit zugeordneten Pixeln der Wärmebildaufnahmen) zu einem oder mehreren Clustern zusammenzuführen, für die bestimmt wurde, dass die mehreren nebeneinanderliegenden Punkte mit einer vorgegebenen Wahrscheinlichkeit einem einzelnen Objekt zuzuordnen sind. Bei einer folgenden Clusteranalyse werden das eine oder die mehreren Cluster hinsichtlich jeweiliger Clustereigenschaften untersucht. Mittels Bilden der Cluster und deren Analyse können Teile oder Bereiche der dreidimensionalen Punktwolke hinsichtlich ihrer Clustereigenschaften analysiert werden, beispielsweise zum Bestimmen eines Maßes oder einer Wahrscheinlichkeit inwiefern ein Cluster die Anwesenheit der Person 1 anzeigt oder nicht.The cluster formation can provide for combining several adjacent points of the three-dimensional point cloud of the lidar measurement signals (with associated pixels of the thermal images) into one or more clusters, for which it was determined that the several adjacent points can be assigned to a single object with a predetermined probability. In a subsequent cluster analysis, one or more clusters are examined with regard to their respective cluster properties. By forming the clusters and analyzing them, parts or areas of the three-dimensional point cloud can be analyzed with regard to their cluster properties, for example to determine a measure or a probability to what extent a cluster indicates the presence of person 1 or not.

Bei der Clusteranalyse können ein oder mehrere der folgenden Clustereigenschaften untersucht oder analysiert werden: Mittelwert der Helligkeitswerte von Punkten des Clusters; Verteilung der Helligkeit (Temperatur) über das Cluster; Clustergröße und höchster / tiefster Punkt eines Clusters (Höhe über Bezugsebene, beispielweise Erdboden). Ausgehend von der Clusteranalyse kann vorgesehen sein, für die Person 1 ein oder mehrere zusätzliche Eigenschaften zu bestimmen, insbesondere ob die Person sitzt, steht oder läuft und / oder eine Unterscheidung der Person von anderen Lebewesen.In cluster analysis, one or more of the following cluster properties can be examined or analyzed: average of the brightness values of points of the cluster; Distribution of brightness (temperature) across the cluster; Cluster size and highest/lowest point of a cluster (height above reference plane, e.g. ground). Based on the cluster analysis, one or more additional properties can be determined for the person 1, in particular whether the person is sitting, standing or walking and/or a distinction between the person and other living beings.

Die Auswerteeinrichtung 5 kann in einem Beispiel als ein Echtzeit-Transfer-System ausgeführt sein, welches die Lidar-Messsignale und Wärmebildsignale zusammen an einen Datenverarbeitungseinrichtung 8 übersendet, die getrennt von der Auswerteeinrichtung 5 gebildet ist und einen oder mehrere Prozessoren zur Datenverarbeitung aufweist. Auf diese Weise können ein oder mehrere Schritte der Messsignalauswertung und -verarbeitung beim Verfahren zur Personenerkennung entfernt von der Auswerteinrichtung 5 ausgeführt werden. Cloud-Computing kann hierbei Anwendung finden.In one example, the evaluation device 5 can be designed as a real-time transfer system, which sends the lidar measurement signals and thermal image signals together to a data processing device 8, which is formed separately from the evaluation device 5 and has one or more processors for data processing. In this way, one or more steps of measurement signal evaluation and processing in the person recognition method can be carried out remotely from the evaluation device 5. Cloud computing can be used here.

Die in der vorstehenden Beschreibung, den Ansprüchen sowie der Zeichnung offenbarten Merkmale können sowohl einzeln als auch in beliebiger Kombination für die Verwirklichung der verschiedenen Ausführungen von Bedeutung sein.The features disclosed in the above description, the claims and the drawing can be important both individually and in any combination for the realization of the various designs.

Claims (15)

Verfahren zum Detektieren einer Person in einem Beobachtungsbereich mittels einer Detektionsvorrichtung, mit: - Bereitstellen einer Detektionsvorrichtung (2), die eine erste Messeinrichtung (3) mit einer Wärmebildsensoreinrichtung, eine zweite Messeinrichtung (4) mit einem Lidar-Messeinrichtung sowie eine Auswerteinrichtung aufweist, welche mit der ersten und der zweiten Messeinrichtung (3, 4) verbunden und eingerichtet ist, von der ersten und der zweiten Messeinrichtung (3, 4) erfasste Messsignale zum Detektieren einer Person (1) zu verarbeiten; - Erfassen von Wärmebildsignalen für einen Beobachtungsbereich (6) mittels der Wärmebildsensoreinrichtung, wobei die Wärmebildsignale zweidimensionale Wärmebildaufnahmen repräsentieren; - Erfassen von Lidar-Messsignalen für den Beobachtungsbereich (6) mittels der Lidar-Messeinrichtung; - Bestimmen von fusionierten Messsignalen mittels einer Messsignalfusion für die Wärmebildsignale und die Lidar-Messsignale mit Hilfe der Auswerteinrichtung (5); - Bestimmen der Anwesenheit der Person (1) im Beobachtungsbereich (6) mittels Auswerten der fusionierten Messsignale mit Hilfe der Auswerteinrichtung (5) und - Bereitstellen von Signaldaten, welche die Anwesenheit der Person (1) im Beobachtungsbereich (6) anzeigen, an einem Datenausgang der Auswerteeinrichtung (5).Method for detecting a person in an observation area using a detection device, with: - Providing a detection device (2) which has a first measuring device (3) with a thermal image sensor device, a second measuring device (4) with a lidar measuring device and an evaluation device which is connected to the first and second measuring devices (3, 4) and is set up to process measurement signals detected by the first and second measuring devices (3, 4) to detect a person (1); - Acquiring thermal image signals for an observation area (6) by means of the thermal image sensor device, the thermal image signals representing two-dimensional thermal images; - Acquiring lidar measurement signals for the observation area (6) using the lidar measuring device; - Determining fused measurement signals by means of a measurement signal fusion for the thermal image signals and the lidar measurement signals with the aid of the evaluation device (5); - Determining the presence of the person (1) in the observation area (6) by evaluating the merged measurement signals with the aid of the evaluation device (5) and - Providing signal data which indicates the presence of the person (1) in the observation area (6) at a data output of the evaluation device (5). Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass beim Bestimmen der fusionierten Messsignale und der Anwesenheit der Person (1) im Beobachtungsbereich (6) Folgendes vorgesehen ist: - Bestimmen einer dreidimensionalen Punktwolke für die Lidar-Messsignale, in welcher den Punkten jeweils ein oder mehrere Lidar-Messsignale zugeordnet sind; - Projizieren der Wärmebildsignale auf die dreidimensionalen Punktwolke für die Lidar-Messsignale, um die fusionierten Messsignale zu bestimmen; und - Bestimmen der Anwesenheit der Person (1) im Beobachtungsbereich (6) mittels Auswerten der auf die dreidimensionale Punktwolke für die Lidar-Messsignale projizierten Wärmebildsignale.Procedure according to Claim 1 , characterized in that when determining the fused measurement signals and the presence of the person (1) in the observation area (6), the following is provided: - Determination of a three-dimensional point cloud for the lidar measurement signals, in which one or more lidar measurement signals are assigned to the points are; - Projecting the thermal image signals onto the three-dimensional point cloud for the lidar measurement signals, to determine the merged measurement signals; and - determining the presence of the person (1) in the observation area (6) by evaluating the thermal image signals projected onto the three-dimensional point cloud for the lidar measurement signals. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass beim Bestimmen der Anwesenheit der Person (1) für die Person (1) eine Position im Beobachtungsbereich (6) bestimmt wird.Procedure according to Claim 1 or 2 , characterized in that when determining the presence of the person (1), a position in the observation area (6) is determined for the person (1). Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass beim Bestimmen der Position eine Relativposition der Person (1) zur ersten und / oder zweiten Messeinrichtung (3; 4) bestimmt wird.Procedure according to Claim 3 , characterized in that when determining the position, a relative position of the person (1) to the first and / or second measuring device (3; 4) is determined. Verfahren nach Anspruch 3 oder 4, dadurch gekennzeichnet, dass beim Bestimmen der Position ein Abstand zwischen der ersten und / oder der zweiten Messeinrichtung (3; 4) und der Person (1) bestimmt wird.Procedure according to Claim 3 or 4 , characterized in that when determining the position, a distance between the first and / or the second measuring device (3; 4) and the person (1) is determined. Verfahren nach mindestens einem der Ansprüche 3 bis 5, dadurch gekennzeichnet, dass beim Bestimmen der Position eine räumliche Position für die Person (1) im Beobachtungsbereich (6) bestimmt wird.Method according to at least one of the Claims 3 until 5 , characterized in that when determining the position, a spatial position for the person (1) in the observation area (6) is determined. Verfahren nach mindestens einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass für die Person (1) eine Bewegungstrajektorie im Beobachtungsbereich (6) bestimmt wird.Method according to at least one of the preceding claims, characterized in that a movement trajectory in the observation area (6) is determined for the person (1). Verfahren nach mindestens einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass beim Bestimmen der fusionierten Messsignale den Punkten der dreidimensionalen Punktwolke jeweils ein Helligkeitswert zugeordnet wird, welcher aus einem dem Punkt mittels der Projektion zugeordneten Wärmebildsignal abgeleitet ist.Method according to at least one of the preceding claims, characterized in that when determining the fused measurement signals, the points of the three-dimensional point cloud are each assigned a brightness value which is derived from a thermal image signal assigned to the point by means of the projection. Verfahren nach mindestens einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass beim Bestimmen der Anwesenheit der Person (1) im Beobachtungsbereich (6) weiterhin Folgendes vorgesehen ist: - Ausführen einer Clusterbildung, bei der mehrere nebeneinanderliegende Punkte der dreidimensionalen Punktwolke zu einem oder mehreren Clustern zusammengeführt werden, für die bestimmt wurde, dass die mehreren nebeneinanderliegenden Punkte mit einer vorgegebenen Wahrscheinlichkeit einem einzelnen Objekt zuzuordnen sind; und - Ausführen einer Clusteranalyse, bei der das eine oder die mehreren Cluster hinsichtlich jeweiliger Clustereigenschaften untersucht werden.Method according to at least one of the preceding claims, characterized in that when determining the presence of the person (1) in the observation area (6), the following is further provided: - Execution of a cluster formation, in which several adjacent points of the three-dimensional point cloud are brought together to form one or more clusters for which it was determined that the several adjacent points can be assigned to a single object with a predetermined probability; and - Executing a cluster analysis in which the one or more clusters are examined with regard to respective cluster properties. Verfahren nach mindestens einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass das Detektieren der Person (1) in dem Beobachtungsbereich (6) als eine deterministische Objekterkennung frei von Verfahren der künstlichen Intelligenz ausgeführt wird.Method according to at least one of the preceding claims, characterized in that the detection of the person (1) in the observation area (6) is carried out as a deterministic object recognition free of artificial intelligence methods. Verfahren nach mindestens einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die erste Messeinrichtung (3) und die zweite Messeinrichtung (4) in einem Fahrzeug bereitgestellt werden, welches als ein Land-, See- und / oder Luftfahrzeug ausgeführt ist, und eine Bewegung des Fahrzeugs mittels einer Steuereinrichtung des Fahrzeugs unter Berücksichtigung der Detektion der Person (1) im Beobachtungsbereich (6) gesteuert wird.Method according to at least one of the preceding claims, characterized in that the first measuring device (3) and the second measuring device (4) are provided in a vehicle which is designed as a land, sea and / or aircraft, and a movement of the Vehicle is controlled by means of a control device of the vehicle, taking into account the detection of the person (1) in the observation area (6). Verfahren nach Anspruch 11, dadurch gekennzeichnet, dass das Fahrzeug autonom gesteuert wird und die autonome Steuerung mittels der Steuereinrichtung unter Berücksichtigung der Detektion der Person (1) im Beobachtungsbereich (6) ausgeführt wird.Procedure according to Claim 11 , characterized in that the vehicle is controlled autonomously and the autonomous control is carried out by means of the control device taking into account the detection of the person (1) in the observation area (6). Verfahren nach Anspruch 11 oder 12, dadurch gekennzeichnet, dass mittels der Steuereinrichtung des Fahrzeugs eine geplante Bewegungstrajektorie des Fahrzeugs im Beobachtungsbereich (6) und auf das Detektieren der Person (1) in dem Beobachtungsbereich (6) ein Sicherheitsmaß für das Bewegen des Fahrzeugs entlang der geplanten Bewegungstrajektorie bestimmt werden.Procedure according to Claim 11 or 12 , characterized in that a planned movement trajectory of the vehicle in the observation area (6) is determined by means of the control device of the vehicle and, upon detecting the person (1) in the observation area (6), a safety measure for moving the vehicle along the planned movement trajectory is determined. Detektionsvorrichtung (2) zum Detektieren einer Person (1) in einem Beobachtungsbereich (6), mit einer ersten Messeinrichtung mit einer Wärmebildsensoreinrichtung, einer zweiten Messeinrichtung (4) mit einem Lidar-Messeinrichtung sowie einer Auswerteinrichtung (5), welche mit der ersten und der zweiten Messeinrichtung (3, 4) verbunden und eingerichtet ist, von der ersten und der zweiten Messeinrichtung (3, 4) erfasste Messsignale zum Detektieren einer Person (1) zu verarbeiten, wobei die Detektionsvorrichtung (2) zum Ausführen eines Verfahrens mindestens einem der vorangehenden Ansprüche für Folgendes eingerichtet ist: - Erfassen von Wärmebildsignalen für einen Beobachtungsbereich (6) mittels der Wärmebildsensoreinrichtung, wobei die Wärmebildsignale zweidimensionale Wärmebildaufnahmen repräsentieren; - Erfassen von Lidar-Messsignalen für den Beobachtungsbereich (6) mittels der Lidar-Messeinrichtung; - Bestimmen von fusionierten Messsignalen mittels einer Messsignalfusion für die Wärmebildsignale und die Lidar-Messsignale mit Hilfe der Auswerteinrichtung (5); - Bestimmen der Anwesenheit der Person (1) im Beobachtungsbereich (6) mittels Auswerten der fusionierten Messsignale mit Hilfe der Auswerteinrichtung (5) und - Bereitstellen von Signaldaten, welche die Anwesenheit der Person (1) im Beobachtungsbereich (6) anzeigen, an einem Datenausgang der Auswerteeinrichtung.Detection device (2) for detecting a person (1) in an observation area (6), with a first measuring device with a thermal image sensor device, a second measuring device (4) with a lidar measuring device and an evaluation device (5), which with the first and the second measuring device (3, 4) and is set up to process measurement signals detected by the first and second measuring devices (3, 4) for detecting a person (1), the detection device (2) for carrying out a method of at least one of the preceding Claims is set up for the following: - detecting thermal image signals for an observation area (6) by means of the thermal image sensor device, the thermal image signals representing two-dimensional thermal images; - Acquiring lidar measurement signals for the observation area (6) using the lidar measuring device; - Determining fused measurement signals by means of a measurement signal fusion for the thermal image signals and the lidar measurement signals with the aid of the evaluation device (5); - Determining the presence of the person (1) in the observation area (6) by evaluating the merged measurement signals with the aid of the evaluation device (5) and - Providing signal data which indicates the presence of the person (1) in the observation area (6) at a data output of the evaluation device. Fahrzeug (8), welches als ein Land-, See- und / oder Luftfahrzeug ausgeführt ist, mit einer Detektionsvorrichtung (2) nach Anspruch 14.Vehicle (8), which is designed as a land, sea and / or aircraft, with a detection device (2). Claim 14 .
DE102022112332.4A 2022-05-17 2022-05-17 Method and detection device for detecting a person in an observation area and vehicle Pending DE102022112332A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102022112332.4A DE102022112332A1 (en) 2022-05-17 2022-05-17 Method and detection device for detecting a person in an observation area and vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022112332.4A DE102022112332A1 (en) 2022-05-17 2022-05-17 Method and detection device for detecting a person in an observation area and vehicle

Publications (1)

Publication Number Publication Date
DE102022112332A1 true DE102022112332A1 (en) 2023-11-23

Family

ID=88599467

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022112332.4A Pending DE102022112332A1 (en) 2022-05-17 2022-05-17 Method and detection device for detecting a person in an observation area and vehicle

Country Status (1)

Country Link
DE (1) DE102022112332A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10336681A1 (en) 2003-08-09 2005-03-03 Audi Ag motor vehicle
DE102016104463A1 (en) 2015-03-11 2016-09-15 The Boeing Company Multidimensional merging of images in real time
DE102019008079A1 (en) 2019-11-21 2020-08-20 Daimler Ag Method for detecting at least one object in a driving area of a vehicle, device set up to carry out such a method, and vehicle with such a device
DE102019216304A1 (en) 2019-10-23 2021-04-29 Zf Friedrichshafen Ag Fusion of thermal images with data from 3D sensors

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10336681A1 (en) 2003-08-09 2005-03-03 Audi Ag motor vehicle
DE102016104463A1 (en) 2015-03-11 2016-09-15 The Boeing Company Multidimensional merging of images in real time
DE102019216304A1 (en) 2019-10-23 2021-04-29 Zf Friedrichshafen Ag Fusion of thermal images with data from 3D sensors
DE102019008079A1 (en) 2019-11-21 2020-08-20 Daimler Ag Method for detecting at least one object in a driving area of a vehicle, device set up to carry out such a method, and vehicle with such a device

Similar Documents

Publication Publication Date Title
DE60037360T2 (en) Method and device for measuring the speed of vehicles with an image processing system
DE102018108027B4 (en) Object detection device
DE112009000949T5 (en) Detection of a free driving path for a vehicle
DE10029866A1 (en) Object recognition apparatus for motor vehicles, selects specific image windows depending on the distance difference and combines selected windows to recognize target object using attribute values
DE10029423A1 (en) Object detection system for motor vehicle allocates distance ranges to sections of image based on range identification numbers
DE10148071A1 (en) Object detection and tracking procedures
DE102017102506B4 (en) METHOD FOR DETECTING OTHER VEHICLES RELATIVE TO A CARRIER VEHICLE USING WHEEL DETECTION
DE102016122481A1 (en) SURFACE STATUS RECOGNITION FOR SNOW-COVERED RIDES
DE102014209137A1 (en) Method and device for calibrating a camera system of a motor vehicle
EP1531342B1 (en) Method of detecting pedestrians
WO2019030094A1 (en) Method for monitoring surroundings of a motor vehicle, sensor controller, driver assistance system, and motor vehicle
WO2021069346A1 (en) Laser working system for performing a working process on a workpiece by means of a laser beam and method for monitoring a working process on a workpiece by means of a laser beam
EP2693403B1 (en) Method for testing a contiguous section of an image for errors in the surface area of an object
WO2021213788A1 (en) Method and device for identifying blooming in a lidar measurement
DE10148060A1 (en) Object detection and tracking procedures
EP3663881B1 (en) Method for controlling an autonomous vehicle on the basis of estimated movement vectors
EP0290633A1 (en) Method for detecting changes in the driving range of an unmanned vehicle
DE602004003912T2 (en) Device and method for measuring the visibility
DE102022112332A1 (en) Method and detection device for detecting a person in an observation area and vehicle
DE102022201279B3 (en) Method for capturing an environment of a vehicle, camera device and vehicle
EP4068223A1 (en) Method and system for determining the ground level with an artificial neural network
DE102022103147A1 (en) METHOD AND APPARATUS FOR TRACKING AN OBJECT USING A LIDAR SENSOR AND RECORDING MEDIA STORING A PROGRAM TO PERFORM THE METHOD
EP4145238A1 (en) Method for controlling an unmanned aerial vehicle for an inspection flight for inspecting an object, and unmanned inspection aerial vehicle
EP3663800B1 (en) Method for detecting objects using a 3d camera
DE112021003430T5 (en) IMAGE PROCESSING DEVICE

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication