DE102022112332A1 - Method and detection device for detecting a person in an observation area and vehicle - Google Patents
Method and detection device for detecting a person in an observation area and vehicle Download PDFInfo
- Publication number
- DE102022112332A1 DE102022112332A1 DE102022112332.4A DE102022112332A DE102022112332A1 DE 102022112332 A1 DE102022112332 A1 DE 102022112332A1 DE 102022112332 A DE102022112332 A DE 102022112332A DE 102022112332 A1 DE102022112332 A1 DE 102022112332A1
- Authority
- DE
- Germany
- Prior art keywords
- person
- observation area
- measurement signals
- thermal image
- lidar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 238000001514 detection method Methods 0.000 title claims abstract description 34
- 238000005259 measurement Methods 0.000 claims abstract description 83
- 238000011156 evaluation Methods 0.000 claims abstract description 45
- 230000004927 fusion Effects 0.000 claims abstract description 8
- 238000007621 cluster analysis Methods 0.000 claims description 7
- 230000015572 biosynthetic process Effects 0.000 claims description 5
- 238000013473 artificial intelligence Methods 0.000 claims description 3
- 238000004458 analytical method Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 3
- 238000001931 thermography Methods 0.000 description 3
- 230000002730 additional effect Effects 0.000 description 2
- 230000005855 radiation Effects 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 1
- 238000012854 evaluation process Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/09—Taking automatic action to avoid collision, e.g. braking and steering
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
- B60W30/0956—Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0015—Planning or execution of driving tasks specially adapted for safety
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/42—Simultaneous measurement of distance and other co-ordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4808—Evaluating distance, position or velocity data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/251—Fusion techniques of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/143—Alarm means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/402—Type
- B60W2554/4029—Pedestrians
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/35—Data fusion
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Automation & Control Theory (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Data Mining & Analysis (AREA)
- Computer Networks & Wireless Communication (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Electromagnetism (AREA)
- Human Computer Interaction (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zum Detektieren einer Person in einem Beobachtungsbereich mittels einer Detektionsvorrichtung. Hierbei ist Folgendes vorgesehen: Bereitstellen einer Detektionsvorrichtung (2), die eine erste Messeinrichtung (3) mit einer Wärmebildsensoreinrichtung, eine zweite Messeinrichtung (4) mit einem Lidar-Messeinrichtung sowie eine Auswerteinrichtung aufweist, welche mit der ersten und der zweiten Messeinrichtung (3, 4) verbunden und eingerichtet ist, von der ersten und der zweiten Messeinrichtung (3, 4) erfasste Messsignale zum Detektieren einer Person (1) zu verarbeiten; Erfassen von Wärmebildsignalen für einen Beobachtungsbereich (6) mittels der Wärmebildsensoreinrichtung, wobei die Wärmebildsignale zweidimensionale Wärmebildaufnahmen repräsentieren; Erfassen von Lidar-Messsignalen für den Beobachtungsbereich (6) mittels der Lidar-Messeinrichtung; Bestimmen von fusionierten Messsignalen mittels einer Messsignalfusion für die Wärmebildsignale und die Lidar-Messsignale mit Hilfe der Auswerteinrichtung (5); Bestimmen der Anwesenheit der Person (1) im Beobachtungsbereich (6) mittels Auswerten der fusionierten Messsignale mit Hilfe der Auswerteinrichtung (5) und Bereitstellen von Signaldaten, welche die Anwesenheit der Person (1) im Beobachtungsbereich (6) anzeigen, an einem Datenausgang der Auswerteeinrichtung (5). Weiterhin sind eine Detektionsvorrichtung (2) zum Detektieren einer Person (1) in einem Beobachtungsbereich (6) sowie ein Fahrzeug (8) geschaffen.The invention relates to a method for detecting a person in an observation area using a detection device. The following is provided here: provision of a detection device (2) which has a first measuring device (3) with a thermal image sensor device, a second measuring device (4) with a lidar measuring device and an evaluation device which is connected to the first and second measuring devices (3, 4) is connected and set up to process measurement signals detected by the first and second measuring devices (3, 4) for detecting a person (1); Detecting thermal image signals for an observation area (6) by means of the thermal image sensor device, the thermal image signals representing two-dimensional thermal images; Detecting lidar measurement signals for the observation area (6) using the lidar measuring device; Determining fused measurement signals by means of a measurement signal fusion for the thermal image signals and the lidar measurement signals with the aid of the evaluation device (5); Determining the presence of the person (1) in the observation area (6) by evaluating the fused measurement signals with the aid of the evaluation device (5) and providing signal data which indicate the presence of the person (1) in the observation area (6) at a data output of the evaluation device (5). Furthermore, a detection device (2) for detecting a person (1) in an observation area (6) and a vehicle (8) are created.
Description
Die Erfindung betrifft ein Verfahren und eine Detektionsvorrichtung zum Detektieren einer Person in einem Beobachtungsbereich sowie ein Fahrzeug.The invention relates to a method and a detection device for detecting a person in an observation area and a vehicle.
Hintergrundbackground
Das Erfassen oder Detektieren einer Person in einem Beobachtungsbereich kann in Verbindung mit unterschiedlichen Anwendungen vorgesehen sein, beispielsweise zur Vermeidung von Gefahrensituationen für die Person. So kann vorgesehen sein, an die Person Warnsignale auszugeben, wenn für diese eine Anwesenheit in einem Beobachtungsbereich festgestellt wird, also einem überwachten räumlichen Bereich. Alternativ oder ergänzend kann vorgesehen sein, auf das Detektieren der Person im Beobachtungsbereich ein Fahrzeug, welches sich in den Beobachtungsbereich hinein oder in diesem bewegt, so zu steuern, dass eine mögliche Kollision mit der erfassten Person vermieden wird.Detecting or detecting a person in an observation area can be provided in connection with different applications, for example to avoid dangerous situations for the person. It can thus be provided that warning signals are issued to the person if their presence is detected in an observation area, i.e. a monitored spatial area. Alternatively or additionally, it can be provided that upon detecting the person in the observation area, a vehicle that moves into or within the observation area is controlled in such a way that a possible collision with the detected person is avoided.
Unterschiedliche Sensor- oder Messeinrichtungen wurden vorgeschlagen, um Messsignale zu erfassen, die Hinweise auf ein Objekt in einem Bereich geben können. Es besteht Bedarf, Genauigkeit und Zuverlässigkeit der Personenerkennung zu verbessern.Different sensor or measuring devices have been proposed to capture measurement signals that can provide information about an object in an area. There is a need to improve the accuracy and reliability of person detection.
ZusammenfassungSummary
Aufgabe der Erfindung ist es, ein Verfahren und eine Detektionsvorrichtung zum verbesserten Detektieren einer Person in einem Beobachtungsbereich sowie ein Fahrzeug anzugeben, mit denen das Erfassen einer oder mehrerer Personen in dem Beobachtungsbereich mit erhöhter Genauigkeit und verbesserter Zuverlässigkeit ermöglicht wird.The object of the invention is to provide a method and a detection device for improved detection of a person in an observation area and a vehicle with which the detection of one or more people in the observation area is made possible with increased accuracy and improved reliability.
Zur Lösung sind ein Verfahren und eine Detektionsvorrichtung zum Detektieren einer Person in einem Beobachtungsbereich nach den unabhängigen Ansprüchen 1 und 14 geschaffen. Weiterhin ist ein Fahrzeug nach dem nebengeordneten Anspruch 15 vorgesehen. Ausgestaltungen sind Gegenstand von abhängigen Unteransprüchen.To solve this, a method and a detection device for detecting a person in an observation area according to independent claims 1 and 14 are created. Furthermore, a vehicle according to independent claim 15 is provided. Refinements are the subject of dependent subclaims.
Nach einem Aspekt ist ein Verfahren zum Detektieren einer Person in einem Beobachtungsbereich mittels einer Detektionsvorrichtung geschaffen, welches Folgendes aufweist: Bereitstellen einer Detektionsvorrichtung, die eine erste Messeinrichtung mit einer Wärmebildsensoreinrichtung, eine zweite Messeinrichtung mit einem Lidar-Messeinrichtung sowie eine Auswerteinrichtung aufweist, welche mit der ersten und der zweiten Messeinrichtung verbunden und eingerichtet ist, von der ersten und der zweiten Messeinrichtung erfasste Messsignale zum Detektieren einer Person zu verarbeiten; Erfassen von Wärmebildsignalen für einen Beobachtungsbereich mittels der Wärmebildsensoreinrichtung, wobei die Wärmebildsignale zweidimensionale Wärmebildaufnahmen repräsentieren; Erfassen von Lidar-Messsignalen für den Beobachtungsbereich mittels der Lidar-Messeinrichtung; Bestimmen von fusionierten Messsignalen mittels einer Messsignalfusion für die Wärmebildsignale und die Lidar-Messsignale mit Hilfe der Auswerteinrichtung; Bestimmen der Anwesenheit einer Person im Beobachtungsbereich mittels Auswerten der fusionierten Messsignale mit Hilfe der Auswerteinrichtung und Bereitstellen von Signaldaten, welche die Anwesenheit der Person im Beobachtungsbereich anzeigen, an einem Datenausgang der Auswerteeinrichtung.According to one aspect, a method for detecting a person in an observation area by means of a detection device is created, which has the following: providing a detection device which has a first measuring device with a thermal image sensor device, a second measuring device with a lidar measuring device and an evaluation device which is connected to the connected to the first and second measuring devices and set up to process measurement signals detected by the first and second measuring devices for detecting a person; Detecting thermal image signals for an observation area using the thermal image sensor device, the thermal image signals representing two-dimensional thermal images; Acquiring lidar measurement signals for the observation area using the lidar measuring device; Determining fused measurement signals by means of a measurement signal fusion for the thermal image signals and the lidar measurement signals using the evaluation device; Determining the presence of a person in the observation area by evaluating the fused measurement signals with the aid of the evaluation device and providing signal data which indicate the presence of the person in the observation area at a data output of the evaluation device.
Nach einem weiteren Aspekt ist eine Detektionsvorrichtung zum Detektieren einer Person in einem Beobachtungsbereich geschaffen, die Folgendes aufweist: eine erste Messeinrichtung mit einer Wärmebildsensoreinrichtung, eine zweite Messeinrichtung mit einem Lidar-Messeinrichtung sowie einer Auswerteinrichtung, welche mit der ersten und der zweiten Messeinrichtung verbunden und eingerichtet ist, von der ersten und der zweiten Messeinrichtung erfasste Messsignale zum Detektieren einer Person zu verarbeiten. Die Detektionsvorrichtung ist zum Detektieren einer Person in dem Beobachtungsbereich für Folgendes eingerichtet: Erfassen von Wärmebildsignalen für einen Beobachtungsbereich mittels der Wärmebildsensoreinrichtung, wobei die Wärmebildsignale zweidimensionale Wärmebildaufnahmen repräsentieren; Erfassen von Lidar-Messsignalen für den Beobachtungsbereich mittels der Lidar-Messeinrichtung; Bestimmen von fusionierten Messsignalen mittels einer Messsignalfusion für die Wärmebildsignale und die Lidar-Messsignale mit Hilfe der Auswerteinrichtung; Bestimmen der Anwesenheit einer Person im Beobachtungsbereich mittels Auswerten der fusionierten Messsignale mit Hilfe der Auswerteinrichtung und Bereitstellen von Signaldaten, welche die Anwesenheit der Person im Beobachtungsbereich anzeigen, an einem Datenausgang der Auswerteeinrichtung.According to a further aspect, a detection device for detecting a person in an observation area is created, which has the following: a first measuring device with a thermal image sensor device, a second measuring device with a lidar measuring device and an evaluation device, which is connected and set up with the first and second measuring devices is to process measurement signals detected by the first and second measuring devices to detect a person. The detection device is set up to detect a person in the observation area for the following: detecting thermal image signals for an observation area by means of the thermal image sensor device, the thermal image signals representing two-dimensional thermal images; Acquiring lidar measurement signals for the observation area using the lidar measuring device; Determining fused measurement signals by means of a measurement signal fusion for the thermal image signals and the lidar measurement signals using the evaluation device; Determining the presence of a person in the observation area by evaluating the fused measurement signals with the aid of the evaluation device and providing signal data which indicate the presence of the person in the observation area at a data output of the evaluation device.
Weiterhin ist ein Fahrzeug, welches als Land-, See- und / oder Luftfahrzeug ausgeführt ist, mit der Detektionsvorrichtung geschaffen.Furthermore, a vehicle designed as a land, sea and/or aircraft is created with the detection device.
Es ist vorgesehen, einerseits Wärmebildsignale mit Hilfe der ersten Messeinrichtung und andererseits Lidar-Messsignale mit Hilfe der zweiten Messeinrichtung für den räumlichen Beobachtungsbereich, welcher hinsichtlich der möglichen Anwesenheit einer oder mehrerer Personen überwacht werden soll, zu erfassen. Mit Hilfe der Auswerteeinrichtung werden die Wärmebildsignale, welche zweidimensionale Wärmebildaufnahme für den Beobachtungsbereich repräsentieren, und die Lidar-Messsignale miteinander fusioniert, insbesondere derart, dass für zumindest einen Teil der Lidar-Messsignale eine Zuordnung zwischen Lidar-Messsignal und einem jeweiligem Wärmebildsignal ausgeführt wird. Mittels Auswerten der derart fusionierten Messsignale wird sodann bestimmt, ob im Beobachtungsbereich zumindest eine Person anwesend ist oder nicht. Beim Bestimmen der Anwesenheit einer Person werden Signaldaten erzeugt und bereitgestellt, welche die Anwesenheit der Personen im Beobachtungsbereich anzeigen. Die Signaldaten werden von der Auswerteeinrichtung an einem Datenausgang bereitgestellt, so dass sie wahlweise abgerufen oder von der Auswerteeinrichtung übertragen werden können, beispielsweise an eine Steuereinrichtung oder eine weitere Auswerteeinrichtung. Dort können die Signaldaten dann ausgewertet werden, um hierauf wahlweise eine oder mehrere Aktionen auszulösen, wozu beispielsweise die Ausgabe eines Warn- oder Informationshinweises gehören kann, insbesondere an die Person.It is provided, on the one hand, to record thermal image signals using the first measuring device and, on the other hand, to record lidar measurement signals using the second measuring device for the spatial observation area, which is to be monitored with regard to the possible presence of one or more people. With the help of the evaluation device, the thermal image signals, which represent two-dimensional thermal image recordings for the observation area, and the lidar measurement signals are merged with one another, in particular in such a way that an association between the lidar measurement signal and a respective thermal image signal is carried out for at least some of the lidar measurement signals. By evaluating the measurement signals merged in this way, it is then determined whether at least one person is present in the observation area or not. When determining the presence of a person, signal data is generated and provided which indicates the presence of the people in the observation area. The signal data are provided by the evaluation device at a data output, so that they can either be called up or transmitted by the evaluation device, for example to a control device or another evaluation device. The signal data can then be evaluated there in order to optionally trigger one or more actions, which can include, for example, the issuance of a warning or information notice, in particular to the person.
Die Verwendung sowohl der Wärmebildsignale wie auch der Lidar-Messsignale in den fusionierten Messsignalen unterstützt das Bestimmen der Anwesenheit der Person im Beobachtungsbereich mit hoher Genauigkeit und Zuverlässigkeit.The use of both the thermal image signals and the lidar measurement signals in the fused measurement signals supports determining the person's presence in the observation area with high accuracy and reliability.
Beim Bestimmen der fusionierten Messsignale und der Anwesenheit der Person im Beobachtungsbereich kann Folgendes vorgesehen sein: Bestimmen einer dreidimensionalen Punktwolke für die Lidar-Messsignale, in welcher den Punkten jeweils ein oder mehrere Lidar-Messsignale zugeordnet sind; Projizieren der Wärmebildsignale auf die dreidimensionalen Punktwolke für die Lidar-Messsignale, um die fusionierten Messsignale zu bestimmen; und Bestimmen der Anwesenheit der Person im Beobachtungsbereich mittels Auswerten der auf die dreidimensionale Punktwolke für die Lidar-Messsignale projizierten Wärmebildsignale. Hierdurch werden die dreidimensionalen Messsignale der Lidar-Messung mit den zweidimensionalen Wärmebildern kombiniert (fusioniert), was eine verbesserte Auswertung der erfassten Messwerte mit höherer Zuverlässigkeit unterstützt. Mittels des Projizierens oder Abbildens der (zweidimensionalen) Wärmebildsignale auf die dreidimensionale Punktwolke erfolgt eine Zuordnung zwischen den Wärmebildsignalen und den Lidar-Messsignalen. Beispielsweise werden einem oder mehreren Pixeln der Wärmebildaufnahmen ein oder mehrere Punkte im dreidimensionalen Raum der Punktwolke zugeordnet.When determining the fused measurement signals and the presence of the person in the observation area, the following can be provided: determining a three-dimensional point cloud for the lidar measurement signals, in which one or more lidar measurement signals are assigned to the points; Projecting the thermal image signals onto the three-dimensional point cloud for the lidar measurement signals to determine the merged measurement signals; and determining the presence of the person in the observation area by evaluating the thermal image signals projected onto the three-dimensional point cloud for the lidar measurement signals. As a result, the three-dimensional measurement signals from the lidar measurement are combined (fused) with the two-dimensional thermal images, which supports improved evaluation of the recorded measured values with greater reliability. By projecting or mapping the (two-dimensional) thermal image signals onto the three-dimensional point cloud, an association is made between the thermal image signals and the lidar measurement signals. For example, one or more points in the three-dimensional space of the point cloud are assigned to one or more pixels of the thermal images.
Beim Bestimmen der Anwesenheit der Person kann für die Person eine Position im Beobachtungsbereich bestimmt werden. Ausgehend von den fusionierten Messsignalen erfolgt hier eine Positionsbestimmung für die Person in dem Beobachtungsbereich, wodurch eine Positionierung der Person im Bobachtungsbereich bestimmbar ist.When determining the person's presence, a position in the observation area can be determined for the person. Based on the fused measurement signals, the position of the person in the observation area is determined, whereby a positioning of the person in the observation area can be determined.
Beim Bestimmen der Position kann eine Relativposition der Person zur ersten und / oder zweiten Messeinrichtung bestimmt werden. Sind die erste und / oder die zweite Messeinrichtung an einem Objekt aufgenommen oder angeordnet, beispielsweise in einem Fahrzeug, erfolgt die Bestimmung der Relativposition relativ zu dem Objekt.When determining the position, a relative position of the person to the first and/or second measuring device can be determined. If the first and/or the second measuring device is recorded or arranged on an object, for example in a vehicle, the relative position is determined relative to the object.
Beim Bestimmen der Position kann ein Abstand zwischen der ersten und / oder der zweiten Messeinrichtung und der Person bestimmt werden. Bei Anordnung der ersten und / oder der zweiten Messeinrichtung in einem Fahrzeug kann so der Abstand zwischen Fahrzeug und detektierter Person bestimmt werden.When determining the position, a distance between the first and/or the second measuring device and the person can be determined. When the first and/or the second measuring device is arranged in a vehicle, the distance between the vehicle and the detected person can be determined.
Beim Bestimmen der Position kann eine räumliche Position für die Person im Beobachtungsbereich bestimmt werden.When determining the position, a spatial position for the person in the observation area can be determined.
Für die Person kann eine Bewegungstrajektorie im Beobachtungsbereich bestimmt werden. Das Bestimmen einer Bewegungstrajektorie für die Person im Beobachtungsbereich ermöglicht wahlweise einer Analyse des dynamischen Verhaltens (Bewegens) der Person im Beobachtungbereich. Aus einer Bewegungstrajektorie für die Person für die Vergangenheit kann wahlweise eine Bestimmung einer Bewegungstrajektorie für eine mögliche momentane oder zukünftige Bewegung der Person im Beobachtungsbereich ausgeführt werden. So kann die zukünftige Bewegungstrajektorie als Fortsetzung der Bewegungstrajektorie für die Vergangenheit bestimmt werden, sei es zum Beispiel entlang einer geraden oder einer gekrümmten Bewegungsbahn.A movement trajectory in the observation area can be determined for the person. Determining a movement trajectory for the person in the observation area optionally enables an analysis of the dynamic behavior (movement) of the person in the observation area. From a movement trajectory for the person in the past, a determination of a movement trajectory for a possible current or future movement of the person in the observation area can optionally be carried out. Thus, the future movement trajectory can be determined as a continuation of the movement trajectory for the past, be it, for example, along a straight or a curved movement path.
Beim Bestimmen der fusionierten Messsignale kann den Punkten der dreidimensionalen Punktwolke jeweils ein Helligkeitswert zugeordnet werden, welcher aus einem dem Punkt mittels der Projektion zugeordneten Wärmebildsignal abgeleitet ist. Den Punkten der dreidimensionalen Punktwolke wird hierbei zum Beispiel in Abhängigkeit von der Helligkeit eines dem jeweiligen Punkt zugeordneten Pixels aus den Wärmebildern ein Helligkeitswert zugeordnet.When determining the merged measurement signals, the points of the three-dimensional point cloud can each be assigned a brightness value, which is derived from a thermal image signal assigned to the point by means of the projection. The points of the three-dimensional point cloud are assigned a brightness value from the thermal images, for example depending on the brightness of a pixel assigned to the respective point.
Beim Bestimmen der Anwesenheit der Person kann im Beobachtungsbereich weiterhin Folgendes vorgesehen sein: Ausführen einer Clusterbildung, bei der mehrere nebeneinanderliegende Punkte der dreidimensionalen Punktwolke zu einem oder mehreren Clustern zusammengeführt werden, für die bestimmt wurde, dass die mehreren nebeneinanderliegenden Punkte mit einer vorgegebenen Wahrscheinlichkeit einem einzelnen Objekt zuzuordnen sind; und Ausführen einer Clusteranalyse, bei der das eine oder die mehreren Cluster hinsichtlich jeweiliger Clustereigenschaften untersucht werden. Mittels Bilden der Cluster und deren Analyse können Teile oder Bereiche der dreidimensionalen Punktwolke hinsichtlich ihrer Clustereigenschaften analysiert werden, beispielsweise zum Bestimmen eines Maßes inwiefern ein Cluster die Anwesenheit der Person anzeigt oder nicht. Bei der Clusteranalyse können ein oder mehrere der folgenden Clustereigenschaften untersucht oder analysiert werden: Mittelwert der Helligkeitswerte von Punkten des Clusters; Verteilung der Helligkeit (Temperatur) über das Cluster; Clustergröße und höchster / tiefster Punkt eines Clusters (Höhe über Bezugsebene, beispielweise Erdboden). Ausgehend von der Clusteranalyse kann vorgesehen sein, für die Person ein oder mehrere zusätzliche Eigenschaften zu bestimmen, insbesondere ob die Person sitzt, steht oder läuft und / oder eine Unterscheidung der Person von anderen Lebewesen.When determining the presence of the person, the following can also be provided in the observation area: carrying out a cluster formation, in which several adjacent points of the three-dimensional point cloud are merged into one or more clusters, for which it was determined that the several adjacent points belong to a single one with a predetermined probability Assign object nen are; and performing a cluster analysis in which the one or more clusters are examined for respective cluster properties. By forming the clusters and analyzing them, parts or areas of the three-dimensional point cloud can be analyzed with regard to their cluster properties, for example to determine the extent to which a cluster indicates the presence of the person or not. In cluster analysis, one or more of the following cluster properties can be examined or analyzed: average of the brightness values of points of the cluster; Distribution of brightness (temperature) across the cluster; Cluster size and highest/lowest point of a cluster (height above reference plane, e.g. ground). Based on the cluster analysis, one or more additional properties can be determined for the person, in particular whether the person is sitting, standing or walking and / or a distinction between the person and other living beings.
Das Detektieren der Person in dem Beobachtungsbereich kann als eine (rein) deterministische Objekterkennung frei von Verfahren der künstlichen Intelligenz ausgeführt werden. Das Bestimmen der Anwesenheit der Person im Beobachtungsbereich mittels der Messsignalauswertung erfolgt hier allein unter Verwendung der deterministischen Objekterkennung, welche die Messsignalfusion umfasst, aber ohne Verwendung von Verfahren der künstlichen Intelligenz.The detection of the person in the observation area can be carried out as a (purely) deterministic object recognition without artificial intelligence methods. Determining the presence of the person in the observation area by means of the measurement signal evaluation is carried out here solely using deterministic object recognition, which includes measurement signal fusion, but without the use of artificial intelligence methods.
Die erste Messeinrichtung und die zweite Messeinrichtung können in einem Fahrzeug bereitgestellt werden, welches als ein Land-, See- und / oder Luftfahrzeug ausgeführt ist, und eine Bewegung des Fahrzeugs kann mittels einer Steuereinrichtung des Fahrzeugs unter Berücksichtigung der Detektion der Person im Beobachtungsbereich gesteuert werden. Die Steuereinrichtung des Fahrzeugs kann über den Datenausgang der Auswerteeinrichtung der Detektionsvorrichtung die Signaldaten empfangen, welche die Anwesenheit der Person im Beobachtungbereich anzeigen, um hiervon ausgehend dann die Bewegung des Fahrzeugs zu steuern. Im Fall der Anwesenheit einer Person im Beobachtungsbereich und einer möglichen Kollision entlang einer geplanten Bewegungstrajektorie des Fahrzeugs kann das Fahrzeug beispielsweise abgebremst oder gestoppt werden. Alternativ kann die Steuereinrichtung eine Umfahrung der detektierten Person bewirken.The first measuring device and the second measuring device can be provided in a vehicle which is designed as a land, sea and/or aircraft, and a movement of the vehicle can be controlled by means of a control device of the vehicle, taking into account the detection of the person in the observation area . The control device of the vehicle can receive the signal data, which indicate the presence of the person in the observation area, via the data output of the evaluation device of the detection device, in order to then control the movement of the vehicle based on this. In the case of the presence of a person in the observation area and a possible collision along a planned movement trajectory of the vehicle, the vehicle can, for example, be braked or stopped. Alternatively, the control device can cause the detected person to bypass.
Das Fahrzeug kann autonom gesteuert werden, und die autonome Steuerung kann mittels der Steuereinrichtung unter Berücksichtigung der Detektion der Person im Beobachtungsbereich ausgeführt werden.The vehicle can be controlled autonomously, and the autonomous control can be carried out by means of the control device taking into account the detection of the person in the observation area.
Mittels der Steuereinrichtung des Fahrzeugs kann eine geplante Bewegungstrajektorie des Fahrzeugs im Beobachtungsbereich und auf das Detektieren der Person in dem Beobachtungsbereich ein Sicherheitsmaß für das Bewegen des Fahrzeugs entlang der geplanten Bewegungstrajektorie bestimmt werden. Das Sicherheitsmaß kann zum Beispiel eine Wahrscheinlichkeit für eine mögliche Kollision zwischen dem Fahrzeug und der Person anzeigen, beispielweise auch beim Einparken des Fahrzeugs, wenn die Person als sich um Parkplatzbereich befindlich detektiert wird. Wenn die Wahrscheinlichkeit zum Beispiel einen vorgegebenen Schwellwert überschreitet, kann vorgesehen sein, dass die Steuereinrichtung des Fahrzeugs Maßnahmen zur Vermeidung der Kollision initiiert, beispielsweise das Fahrzeug abbremsen oder zum Stillstand bringen. Auch kann ein Warnsignal an der Fahrzeugführer ausgegeben werden.By means of the control device of the vehicle, a planned movement trajectory of the vehicle in the observation area and upon detecting the person in the observation area, a safety measure for moving the vehicle along the planned movement trajectory can be determined. The safety measure can, for example, indicate a probability of a possible collision between the vehicle and the person, for example when parking the vehicle if the person is detected as being in the parking area. For example, if the probability exceeds a predetermined threshold value, it can be provided that the control device of the vehicle initiates measures to avoid the collision, for example braking the vehicle or bringing it to a standstill. A warning signal can also be issued to the vehicle driver.
Bei den verschiedenen Ausführungsformen kann beim Auswerten der fusionierten Messsignale ein Schritt zum Filtern vorgesehen sein, bei dem Messsignale gelöscht oder entfernt werden, die als (definitiv) nicht zu einer Person gehörig bestimmt werden. Beispielsweise können auf diese Weise Punkte der dreidimensionalen Punktwolke aus dem weiteren Auswerteprozess entfernt oder gelöscht werden, für die bestimmt wurde, dass die Punkte mit einer vorgegebenen Sicherheit keine Person anzeigen können, beispielsweise weil die zugeordneten Helligkeitswerte der Punkte außerhalb eines Bereiches für Helligkeitswerte liegen, die potentiell die Anwesenheit einer Person anzeigen können.In the various embodiments, when evaluating the fused measurement signals, a filtering step can be provided in which measurement signals that are determined to (definitely) not belong to a person are deleted or removed. For example, in this way, points of the three-dimensional point cloud can be removed or deleted from the further evaluation process for which it was determined that the points cannot indicate a person with a predetermined certainty, for example because the assigned brightness values of the points lie outside a range for brightness values can potentially indicate the presence of a person.
In einem Beispiel kann ein Verfahren zum Detektieren einer Person in einem Beobachtungsbereich mittels einer Auswertevorrichtung vorgesehen sein, bei dem eine Auswerteeinrichtung mit einem oder mehreren Prozessoren bereitgestellt wird, die jeweils eingerichtet sind, Daten zu verarbeiten. In der Auswertevorrichtung ist Folgendes vorgesehen: Empfangen von Wärmebildsignalen für einen Beobachtungsbereich, wobei die Wärmebildsignale mittels einer Wärmebildsensoreinrichtung einer ersten Messeinrichtung zum Detektieren einer Person im Beobachtungsbereich erfasst wurden und zweidimensionale Wärmebildaufnahmen repräsentieren; Empfangen von Lidar-Messsignalen für den Beobachtungsbereich, wobei die Lidar-Messsignale mittels einer Lidar-Messeinrichtung einer zweiten Messeinrichtung zum Detektieren der Person im Beobachtungsbereich erfasst wurden; Bestimmen von fusionierten Messsignalen mittels einer Messsignalfusion für die Wärmebildsignale und die Lidar-Messsignale mit Hilfe der Auswerteinrichtung; Bestimmen der Anwesenheit einer Person im Beobachtungsbereich mittels Auswerten der fusionierten Messsignale und Bereitstellen von Signaldaten, welche die Anwesenheit der Person im Beobachtungsbereich anzeigen, an einem Datenausgang der Auswerteeinrichtung. Es kann eine Auswerteinrichtung vorgesehen sein, die mittels Software-Applikationen, die auf dem einen oder den mehreren Prozessoren laufen, eingerichtet ist, das vorangehend angegebene Verfahren zum Detektieren der Person im Beobachtungsbereich auszuführen.In one example, a method for detecting a person in an observation area by means of an evaluation device can be provided, in which an evaluation device with one or more processors is provided, each of which is set up to process data. The following is provided in the evaluation device: receiving thermal image signals for an observation area, the thermal image signals being detected by means of a thermal image sensor device of a first measuring device for detecting a person in the observation area and representing two-dimensional thermal image recordings; Receiving lidar measurement signals for the observation area, the lidar measurement signals being detected by means of a lidar measurement device of a second measurement device for detecting the person in the observation area; Determining fused measurement signals by means of a measurement signal fusion for the thermal image signals and the lidar measurement signals using the evaluation device; Determining the presence of a person in the observation area by evaluating the fused measurement signals and providing signal data that indicates the person's presence in the observation area Display observation area at a data output of the evaluation device. An evaluation device can be provided, which is set up to carry out the above-mentioned method for detecting the person in the observation area using software applications that run on the one or more processors.
Das Verfahren zum Detektieren der Person kann auf Basis der Messsignale von der ersten und der zweiten Messeinrichtung allein und abschließend ausgeführt werden, ohne dass es weiterer Messinformation bedarf.The method for detecting the person can be carried out solely and finally on the basis of the measurement signals from the first and second measuring devices, without the need for further measurement information.
Die vorangehend im Zusammenhang mit den verschiedenen Ausgestaltungen des Verfahrens zum Detektieren der Person im Beobachtungsbereich erläuterten Ausgestaltungen können in Verbindung mit der Detektionsvorrichtung und / oder dem Fahrzeug mit der Detektionsvorrichtung entsprechend vorgesehen sein.The configurations explained above in connection with the various configurations of the method for detecting the person in the observation area can be provided accordingly in connection with the detection device and / or the vehicle with the detection device.
Beschreibung von AusführungsbeispielenDescription of exemplary embodiments
Im Folgenden werden weitere Ausführungsbeispiele unter Bezugnahme auf Figuren einer Zeichnung erläutert. Hierbei zeigen:
-
1 eine schematische Darstellung einer Anordnung mit einer Detektionsvorrichtung zum Detektieren einer Person in einem Beobachtungsbereich; -
2 eine schematische Darstellung für ein Verfahren zum Detektieren einer Person in einem Beobachtungbereich mittels der Detektionsvorrichtung und -
3 eine schematische Darstellung für ein Verfahren zum Detektieren einer Person in einem Beobachtungsbereich mittels der Detektionsvorrichtung, wobei eine Clusterbildung und -analyse bei der Messsignalauswertung angewendet wird.
-
1 a schematic representation of an arrangement with a detection device for detecting a person in an observation area; -
2 a schematic representation of a method for detecting a person in an observation area using the detection device and -
3 a schematic representation of a method for detecting a person in an observation area using the detection device, wherein cluster formation and analysis is used in the measurement signal evaluation.
Die erste Messeinrichtung 3 ist mit einer Wärmebildsensoreinrichtung ausgeführt, welche eingerichtet ist, für einen Beobachtungsbereich 6 Wärmebildaufnahmen zu erfassen. Die Wärmebildsensoreinrichtung, insbesondere eine Wärmebildkamera, empfängt Infrarotstrahlung und erfasst damit eine Wärmebildaufnahme von Objekten, vorliegend von der Person 1 im Beobachtungsbereich 6. Typische Wärmebildkameras nutzen eine Spektralbereich zwischen etwa 3,5 bis etwa 15µm Wellenlänge der Infrarotstrahlung. Wärmebildsensoreinrichtungen sind als solche in verschiedenen Ausführungsformen bekannt.The
Die zweite Messeinrichtung 4 ist mit einer Lidar-Messeinrichtung gebildet. Bei der Lidar-Messung handelt es sich um eine Anwendungsform des dreidimensionalen Laserscannens. Die Lidar-Messeinrichtung ermöglicht eine optische Abstands- und Geschwindigkeitsmessung. Lidar-Messeinrichtungen sind als solche in verschiedenen Ausführungsformen bekannt.The
Während die erste Messeinrichtung 3 für den Beobachtungsbereich 6 zweidimensionale Wärmebildaufnahmen erfasst (Schritt 10), ermöglicht es die zweite Messeinrichtung 4, mit Hilfe der Lidar-Messeinrichtung dreidimensionale Entfernungs- oder Abstandsinformationen zu erfassen (Schritt 20). Die so gewonnenen Wärmebildsignale und Lidar-Messsignale werden mit Hilfe der Auswerteeinrichtung 5 zu fusionierten Messsignalen fusioniert (Schritt 30). Hierbei ist vorgesehen, die zweidimensionalen Wärmebildaufnahmen auf die dreidimensionale Punktwolke der Lidar-Messsignale abzubilden oder zu projizieren, derart, dass eine Zuordnung zwischen den Pixeln der Wärmebildaufnahmen und den Lidar-Messsignalen erfolgt. Mittels Auswerten der fusionierten Messsignale im Schritt 40 wird die Person 1 als anwesend im Beobachtungsbereich 6 bestimmt. Hierauf werden im Schritt 50 in der Auswerteeinrichtung 5 Signaldaten bereitgestellt, welche die Anwesenheit der Person 1 im Beobachtungsbereich 6 anzeigen.While the
Die Signaldaten können über einen Datenausgang der Auswerteeinrichtung 5 ausgegeben werden, gemäß
Es kann ergänzend vorgesehen sein, für die Person 1 Näheres zu deren Position im Beobachtungsbereich 6 zu bestimmen. Eine solche Positionsbestimmung kann zum Beispiel mit der Auswerteeinrichtung 5 durchgeführt werden. Im Rahmen der Positionsbestimmung kann zum Beispiel eine Relativposition der Person 1 zur ersten und / oder zweiten Messeinrichtung 3, 4 ermittelt werden. Sind die erste und die zweite Messeinrichtung 3, 4 in dem Fahrzeug 8 angeordnet, kann hierdurch eine Relativposition der Person 1 zu dem Fahrzeug 8 bestimmt werden. Alternativ oder ergänzend können eine räumliche Position der Person 1 und / oder ein Abstand der Person 1 zu der ersten und / oder der zweiten Messeinrichtung 3, 4 bestimmt werden.It can also be provided to determine the person 1's position in the
Die Clusterbildung kann vorsehen, mehrere nebeneinanderliegende Punkte der dreidimensionalen Punktwolke der Lidar-Messsignale (mit zugeordneten Pixeln der Wärmebildaufnahmen) zu einem oder mehreren Clustern zusammenzuführen, für die bestimmt wurde, dass die mehreren nebeneinanderliegenden Punkte mit einer vorgegebenen Wahrscheinlichkeit einem einzelnen Objekt zuzuordnen sind. Bei einer folgenden Clusteranalyse werden das eine oder die mehreren Cluster hinsichtlich jeweiliger Clustereigenschaften untersucht. Mittels Bilden der Cluster und deren Analyse können Teile oder Bereiche der dreidimensionalen Punktwolke hinsichtlich ihrer Clustereigenschaften analysiert werden, beispielsweise zum Bestimmen eines Maßes oder einer Wahrscheinlichkeit inwiefern ein Cluster die Anwesenheit der Person 1 anzeigt oder nicht.The cluster formation can provide for combining several adjacent points of the three-dimensional point cloud of the lidar measurement signals (with associated pixels of the thermal images) into one or more clusters, for which it was determined that the several adjacent points can be assigned to a single object with a predetermined probability. In a subsequent cluster analysis, one or more clusters are examined with regard to their respective cluster properties. By forming the clusters and analyzing them, parts or areas of the three-dimensional point cloud can be analyzed with regard to their cluster properties, for example to determine a measure or a probability to what extent a cluster indicates the presence of person 1 or not.
Bei der Clusteranalyse können ein oder mehrere der folgenden Clustereigenschaften untersucht oder analysiert werden: Mittelwert der Helligkeitswerte von Punkten des Clusters; Verteilung der Helligkeit (Temperatur) über das Cluster; Clustergröße und höchster / tiefster Punkt eines Clusters (Höhe über Bezugsebene, beispielweise Erdboden). Ausgehend von der Clusteranalyse kann vorgesehen sein, für die Person 1 ein oder mehrere zusätzliche Eigenschaften zu bestimmen, insbesondere ob die Person sitzt, steht oder läuft und / oder eine Unterscheidung der Person von anderen Lebewesen.In cluster analysis, one or more of the following cluster properties can be examined or analyzed: average of the brightness values of points of the cluster; Distribution of brightness (temperature) across the cluster; Cluster size and highest/lowest point of a cluster (height above reference plane, e.g. ground). Based on the cluster analysis, one or more additional properties can be determined for the person 1, in particular whether the person is sitting, standing or walking and/or a distinction between the person and other living beings.
Die Auswerteeinrichtung 5 kann in einem Beispiel als ein Echtzeit-Transfer-System ausgeführt sein, welches die Lidar-Messsignale und Wärmebildsignale zusammen an einen Datenverarbeitungseinrichtung 8 übersendet, die getrennt von der Auswerteeinrichtung 5 gebildet ist und einen oder mehrere Prozessoren zur Datenverarbeitung aufweist. Auf diese Weise können ein oder mehrere Schritte der Messsignalauswertung und -verarbeitung beim Verfahren zur Personenerkennung entfernt von der Auswerteinrichtung 5 ausgeführt werden. Cloud-Computing kann hierbei Anwendung finden.In one example, the
Die in der vorstehenden Beschreibung, den Ansprüchen sowie der Zeichnung offenbarten Merkmale können sowohl einzeln als auch in beliebiger Kombination für die Verwirklichung der verschiedenen Ausführungen von Bedeutung sein.The features disclosed in the above description, the claims and the drawing can be important both individually and in any combination for the realization of the various designs.
Claims (15)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102022112332.4A DE102022112332A1 (en) | 2022-05-17 | 2022-05-17 | Method and detection device for detecting a person in an observation area and vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102022112332.4A DE102022112332A1 (en) | 2022-05-17 | 2022-05-17 | Method and detection device for detecting a person in an observation area and vehicle |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102022112332A1 true DE102022112332A1 (en) | 2023-11-23 |
Family
ID=88599467
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102022112332.4A Pending DE102022112332A1 (en) | 2022-05-17 | 2022-05-17 | Method and detection device for detecting a person in an observation area and vehicle |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102022112332A1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10336681A1 (en) | 2003-08-09 | 2005-03-03 | Audi Ag | motor vehicle |
DE102016104463A1 (en) | 2015-03-11 | 2016-09-15 | The Boeing Company | Multidimensional merging of images in real time |
DE102019008079A1 (en) | 2019-11-21 | 2020-08-20 | Daimler Ag | Method for detecting at least one object in a driving area of a vehicle, device set up to carry out such a method, and vehicle with such a device |
DE102019216304A1 (en) | 2019-10-23 | 2021-04-29 | Zf Friedrichshafen Ag | Fusion of thermal images with data from 3D sensors |
-
2022
- 2022-05-17 DE DE102022112332.4A patent/DE102022112332A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10336681A1 (en) | 2003-08-09 | 2005-03-03 | Audi Ag | motor vehicle |
DE102016104463A1 (en) | 2015-03-11 | 2016-09-15 | The Boeing Company | Multidimensional merging of images in real time |
DE102019216304A1 (en) | 2019-10-23 | 2021-04-29 | Zf Friedrichshafen Ag | Fusion of thermal images with data from 3D sensors |
DE102019008079A1 (en) | 2019-11-21 | 2020-08-20 | Daimler Ag | Method for detecting at least one object in a driving area of a vehicle, device set up to carry out such a method, and vehicle with such a device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE60037360T2 (en) | Method and device for measuring the speed of vehicles with an image processing system | |
DE102018108027B4 (en) | Object detection device | |
DE112009000949T5 (en) | Detection of a free driving path for a vehicle | |
DE10029866A1 (en) | Object recognition apparatus for motor vehicles, selects specific image windows depending on the distance difference and combines selected windows to recognize target object using attribute values | |
DE10029423A1 (en) | Object detection system for motor vehicle allocates distance ranges to sections of image based on range identification numbers | |
DE10148071A1 (en) | Object detection and tracking procedures | |
DE102017102506B4 (en) | METHOD FOR DETECTING OTHER VEHICLES RELATIVE TO A CARRIER VEHICLE USING WHEEL DETECTION | |
DE102016122481A1 (en) | SURFACE STATUS RECOGNITION FOR SNOW-COVERED RIDES | |
DE102014209137A1 (en) | Method and device for calibrating a camera system of a motor vehicle | |
EP1531342B1 (en) | Method of detecting pedestrians | |
WO2019030094A1 (en) | Method for monitoring surroundings of a motor vehicle, sensor controller, driver assistance system, and motor vehicle | |
WO2021069346A1 (en) | Laser working system for performing a working process on a workpiece by means of a laser beam and method for monitoring a working process on a workpiece by means of a laser beam | |
EP2693403B1 (en) | Method for testing a contiguous section of an image for errors in the surface area of an object | |
WO2021213788A1 (en) | Method and device for identifying blooming in a lidar measurement | |
DE10148060A1 (en) | Object detection and tracking procedures | |
EP3663881B1 (en) | Method for controlling an autonomous vehicle on the basis of estimated movement vectors | |
EP0290633A1 (en) | Method for detecting changes in the driving range of an unmanned vehicle | |
DE602004003912T2 (en) | Device and method for measuring the visibility | |
DE102022112332A1 (en) | Method and detection device for detecting a person in an observation area and vehicle | |
DE102022201279B3 (en) | Method for capturing an environment of a vehicle, camera device and vehicle | |
EP4068223A1 (en) | Method and system for determining the ground level with an artificial neural network | |
DE102022103147A1 (en) | METHOD AND APPARATUS FOR TRACKING AN OBJECT USING A LIDAR SENSOR AND RECORDING MEDIA STORING A PROGRAM TO PERFORM THE METHOD | |
EP4145238A1 (en) | Method for controlling an unmanned aerial vehicle for an inspection flight for inspecting an object, and unmanned inspection aerial vehicle | |
EP3663800B1 (en) | Method for detecting objects using a 3d camera | |
DE112021003430T5 (en) | IMAGE PROCESSING DEVICE |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication |