DE102019107650A1 - Object shape detection based on two types of environmental sensors - Google Patents
Object shape detection based on two types of environmental sensors Download PDFInfo
- Publication number
- DE102019107650A1 DE102019107650A1 DE102019107650.1A DE102019107650A DE102019107650A1 DE 102019107650 A1 DE102019107650 A1 DE 102019107650A1 DE 102019107650 A DE102019107650 A DE 102019107650A DE 102019107650 A1 DE102019107650 A1 DE 102019107650A1
- Authority
- DE
- Germany
- Prior art keywords
- identified
- shape
- shape estimation
- confidence
- data point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/89—Radar or analogous systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/417—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4802—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/66—Radar-tracking systems; Analogous systems
- G01S13/72—Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
- G01S13/723—Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
- G01S13/726—Multiple target tracking
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/86—Combinations of sonar systems with lidar systems; Combinations of sonar systems with systems not using wave reflection
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/88—Sonar systems specially adapted for specific applications
- G01S15/93—Sonar systems specially adapted for specific applications for anti-collision purposes
- G01S15/931—Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/52—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
- G01S7/539—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Traffic Control Systems (AREA)
Abstract
Die vorliegende Erfindung betrifft ein Verfahren zur Objektformerfassung basierend auf zwei Typen von Umgebungssensoren (14, 16), die in einem Fahrunterstützungssystem (12) eines Fahrzeugs (10) verwendet werden, wobei der erste Umgebungssensortyp (14, 16) ein Bildsensor (14) mit einem Bildsichtfeld (20) ist und der zweite Umgebungssensortyp ein Bereichssensor (16) mit einem Bereichssichtfeld (22) ist, das das Bildsichtfeld (20) mindestens teilweise überlappt, mit den Schritten zum Bereitstellen einer zweidimensionalen Datenpunktmatrix, die die Umgebung (18) des Fahrzeugs (10) im Bildsichtfeld (20) darstellt, durch mindestens einen Bildsensors (14), Identifizieren des mindestens einen Objekts (24) in der zweidimensionalen Datenpunktmatrix, Ausführen einer 2D-Formabschätzung des identifizierten mindestens einen Objekts (24) basierend auf der zweidimensionalen Datenpunktmatrix, Bereitstellen einer dreidimensionalen Datenpunktmatrix, die die Umgebung (18) des Fahrzeugs (10) im Bereichssichtfeld (22) darstellt, durch mindestens einen Bereichssensor (16), Identifizieren des mindestens einen Objekts (24) in der dreidimensionalen Datenpunktmatrix, Ausführen einer 3D-Formabschätzung des identifizierten mindestens einen Objekts (24) basierend auf der dreidimensionalen Datenpunktmatrix und Bestimmen der Form des identifizierten mindestens einen Objekts (24) durch Verschmelzen der 2D-Formabschätzung und der 3D-Formabschätzung für das identifizierte mindestens eine Objekt (24). Die vorliegende Erfindung betrifft auch ein Fahrunterstützungssystem (12) zur Objektformerfassung basierend auf zwei Typen von Umgebungssensoren gemäß dem obigen Verfahren.The present invention relates to a method for object shape detection based on two types of environment sensors (14, 16) which are used in a driving support system (12) of a vehicle (10), the first type of environment sensor (14, 16) having an image sensor (14) an image field of view (20) and the second type of environment sensor is an area sensor (16) with an area field of view (22) which at least partially overlaps the image field of view (20), with the steps of providing a two-dimensional data point matrix which the environment (18) of the vehicle (10) in the image field of view (20), by at least one image sensor (14), identifying the at least one object (24) in the two-dimensional data point matrix, performing a 2D shape estimation of the identified at least one object (24) based on the two-dimensional data point matrix, Providing a three-dimensional matrix of data points representing the surroundings (18) of the vehicle (10) in the area tfeld (22), by at least one area sensor (16), identifying the at least one object (24) in the three-dimensional data point matrix, executing a 3D shape estimation of the identified at least one object (24) based on the three-dimensional data point matrix and determining the shape of the identified at least one object (24) by merging the 2D shape estimation and the 3D shape estimation for the identified at least one object (24). The present invention also relates to a driving support system (12) for object shape detection based on two types of environment sensors according to the above method.
Description
Die vorliegende Erfindung betrifft ein Verfahren zur Objektformerfassung basierend auf zwei Typen von Umgebungssensoren, die in einem Fahrunterstützungssystem eines Fahrzeugs verwendet werden, wobei der erste Umgebungssensortyp ein Bildsensor mit einem Bildsichtfeld ist und der zweite Umgebungssensortyp ein Bereichssensor mit einem Bereichssichtfeld ist, das das Bildsichtfeld mindestens teilweise überlappt.The present invention relates to a method for object shape detection based on two types of environment sensors which are used in a driving support system of a vehicle, the first environment sensor type being an image sensor with an image field of view and the second environment sensor type being an area sensor with an area field of view which at least partially covers the image field of view overlaps.
Auch betrifft die vorliegende Erfindung ein Fahrunterstützungssystem zur Objektformerfassung basierend auf zwei Typen von Umgebungssensoren gemäß dem obigen Verfahren, wobei das Fahrunterstützungssystem mindestens einen Bildsensor als ersten Umgebungssensortyp zum Bereitstellen einer zweidimensionalen Datenpunktmatrix, die die Umgebung des Fahrzeugs in einem Bildsichtfeld darstellt, und mindestens einen Bereichssensor als zweiten Umgebungssensortyp zum Bereitstellen einer dreidimensionalen Datenpunktmatrix aufweist, die die Umgebung des Fahrzeugs in einem Bereichssichtfeld darstellt, wobei das Bereichssichtfeld das Bildsichtfeld mindestens teilweise überlappt.The present invention also relates to a driving support system for object shape detection based on two types of environment sensors according to the above method, the driving support system at least one image sensor as the first type of environment sensor for providing a two-dimensional data point matrix which represents the environment of the vehicle in an image field of view, and at least one area sensor as second type of environment sensor for providing a three-dimensional data point matrix which represents the environment of the vehicle in an area field of view, wherein the area field of view at least partially overlaps the image field of view.
Autonomes und halbautonomes Fahren wird in der Automobilindustrie ein immer wichtigerer Faktor. Prototypen für autonomes Fahren sind bereits entwickelt und eingesetzt worden und werden aktuell getestet, in einigen Fällen sogar unter realen Fahrbedingungen. Autonomes Fahren wird im Automobilsektor als bahnbrechende Technologie angesehen.Autonomous and semi-autonomous driving is becoming an increasingly important factor in the automotive industry. Prototypes for autonomous driving have already been developed and used and are currently being tested, in some cases even under real driving conditions. Autonomous driving is seen as a breakthrough technology in the automotive sector.
Autonomes und halbautonomes Fahren hängt von der Kenntnis der Umgebung des Fahrzeugs ab, das auch als Ego-Fahrzeug bezeichnet wird. Im Ego-Fahrzeug können verschiedene Typen von Umgebungssensoren eingesetzt werden, um seine Umgebung zu überwachen und Objekte wie Fremdfahrzeuge oder Verkehrszeichen zu erfassen. Für autonome und halbautonome Fahrsysteme ist die Berechnung präziser Trajektorien von sich bewegenden Objekten, z.B. Fremdfahrzeugen, in der Umgebung des Ego-Fahrzeugs eine unabdingbare Voraussetzung. Daher ist es wichtig, eine genaue Form von Objekten zu bestimmen, die in einer Umgebung des Fahrzeugs erfasst werden.Autonomous and semi-autonomous driving depends on knowing the surroundings of the vehicle, which is also known as the ego vehicle. Various types of environmental sensors can be used in the ego vehicle to monitor its surroundings and to detect objects such as third-party vehicles or traffic signs. For autonomous and semi-autonomous driving systems, the calculation of precise trajectories of moving objects, e.g. Third-party vehicles, an essential requirement in the vicinity of the ego vehicle. Therefore, it is important to determine an exact shape of objects that are detected in a vicinity of the vehicle.
Die zum Überwachen der Umgebung des Fahrzeugs verwendeten Umgebungssensoren können nach der Art der Information, die durch die Umgebungssensoren erhalten wird, in verschiedene Kategorien eingeteilt werden. Beispielsweise kann ein Typ von Umgebungssensoren eine dreidimensionale Datenpunktmatrix bereitstellen, die die Umgebung des Fahrzeugs in einem Bereichssichtfeld darstellt. Diese Umgebungssensoren, z.B. Umgebungssensoren auf LiDAR- oder Radarbasis, liefern genaue Abstandsinformation für Objekte in der Umgebung des Ego-Fahrzeugs und werden daher als Bereichssensoren bezeichnet. Ein anderer Typ von Umgebungssensoren, die als Bildsensoren betrachtet werden, liefern eine zweidimensionale Datenpunktmatrix, die die Umgebung des Fahrzeugs in einem Bildsichtfeld darstellt, wodurch Sensorinformation bereitgestellt wird, die zum Identifizieren von Objekten hochgradig geeignet ist.The environmental sensors used to monitor the surroundings of the vehicle can be divided into various categories based on the type of information obtained by the environmental sensors. For example, one type of environment sensor can provide a three-dimensional data point matrix that represents the environment of the vehicle in an area field of view. These environmental sensors, e.g. Environment sensors based on LiDAR or radar provide precise distance information for objects in the vicinity of the ego vehicle and are therefore referred to as area sensors. Another type of environmental sensor, considered to be image sensors, provides a two-dimensional array of data points that represent the surroundings of the vehicle in an image field of view, thereby providing sensor information that is highly suitable for identifying objects.
Zum Bereitstellen vollständig autonomer Fahrzeuge müssen verschiedene Sensortechnologien gleichzeitig verwendet werden, um konsistente Umgebungsinformation zu erzeugen. Daher wird für autonome und halbautonome Fahrsysteme Sensorinformation von beiden Umgebungssensortypen verwendet. Es erfolgt eine Verschmelzung von Sensorinformation zum Bestimmen von Positionen von Objekten in der Umgebung des Fahrzeugs. In diesem Zusammenhang ist es erforderlich, dass die Verschmelzung insbesondere in städtischen Umgebungen präzise ausgeführt wird. Unzuverlässige Information, insbesondere über den Abstand zu einem Objekt und über die Ausrichtung des Objekts, vermindern die Gesamtleistungsfähigkeit des Systems und erhöhen das Unfallrisiko.In order to provide fully autonomous vehicles, different sensor technologies must be used at the same time in order to generate consistent environmental information. Therefore, sensor information from both environmental sensor types is used for autonomous and semi-autonomous driving systems. Sensor information is merged to determine positions of objects in the vicinity of the vehicle. In this connection, it is necessary that the merging is carried out precisely, especially in urban environments. Unreliable information, especially about the distance to an object and about the orientation of the object, reduce the overall performance of the system and increase the risk of accidents.
Die gleichen Anforderungen gelten für herkömmliche Fahrerassistenzsysteme, z.B. für das Implementieren einer ACC-, Adaptive Cruise Control, Funktion, die typischerweise auf einem Frontradar und/oder einer Frontkamera als Umgebungssensoren basiert. Wenn beide Typen von Umgebungssensoren verwendet werden, erfolgt eine Verschmelzung der Sensorinformation von beiden Umgebungssensoren, um einen Abstand zu Objekten zu bestimmen, die sich vor dem Ego-Fahrzeug befinden.The same requirements apply to conventional driver assistance systems, e.g. for the implementation of an ACC, Adaptive Cruise Control, function that is typically based on a front radar and / or a front camera as environmental sensors. If both types of environment sensors are used, the sensor information from both environment sensors is merged in order to determine a distance to objects that are located in front of the ego vehicle.
Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren zur Objektformerfassung und ein Fahrunterstützungssystem zur Objektformerfassung der oben genannten Art anzugeben, die eine verbesserte Objektformerfassung ermöglichen.The invention is based on the object of specifying a method for object shape detection and a driving support system for object shape detection of the above-mentioned type, which enable an improved object shape detection.
Die Lösung dieser Aufgabe erfolgt durch die unabhängigen Ansprüche. Vorteilhafte Ausgestaltungen sind in den Unteransprüchen angegeben.This problem is solved by the independent claims. Advantageous refinements are given in the subclaims.
Insbesondere ist durch die vorliegende Erfindung ein Verfahren zur Objektformerfassung basierend auf zwei Typen von Umgebungssensoren angegeben, die in einem Fahrunterstützungssystem eines Fahrzeugs verwendet werden, wobei der erste Umgebungssensortyp ein Bildsensor mit einem Bildsichtfeld ist und der zweite Umgebungssensortyp ein Bereichssensor mit einem Bereichssichtfeld ist, das das Bildsichtfeld mindestens teilweise überlappt, mit den Schritten: Bereitstellen einer zweidimensionalen Datenpunktmatrix, die die Umgebung des Fahrzeugs im Bildsichtfeld darstellt, durch mindestens einen Bildsensor, Identifizieren mindestens eines Objekts in der zweidimensionalen Datenpunktmatrix, Ausführen einer 2D-Formabschätzung des identifizierten mindestens einen Objekts basierend auf der zweidimensionalen Datenpunktmatrix, Bereitstellen einer dreidimensionalen Datenpunktmatrix, die die Umgebung des Fahrzeugs im Bereichssichtfeld darstellt, durch mindestens einen Bereichssensor, Identifizieren mindestens eines Objekts in der dreidimensionalen Datenpunktmatrix und Ausführen einer 3D-Formabschätzung des identifizierten mindestens einen Objekts basierend auf der dreidimensionalen Datenpunktmatrix und Bestimmen der Form des identifizierten mindestens einen Objekts durch Verschmelzen der 2D-Formabschätzung mit der 3D-Formabschätzung für das identifizierte mindestens eine Objekt.In particular, the present invention specifies a method for object shape detection based on two types of environment sensors that are used in a driving support system of a vehicle, the first environment sensor type being an image sensor with an image field of view and the second environment sensor type being an area sensor with an area field of view that is the Image field of view at least partially overlapped, with the steps of: providing a two-dimensional data point matrix which represents the surroundings of the vehicle in the image field of view by at least an image sensor, identifying at least one object in the two-dimensional data point matrix, performing a 2D shape estimation of the identified at least one object based on the two-dimensional data point matrix, providing a three-dimensional data point matrix, which represents the surroundings of the vehicle in the area field of view, by at least one area sensor, identifying at least one Object in the three-dimensional data point matrix and performing a 3D shape estimation of the identified at least one object based on the three-dimensional data point matrix and determining the shape of the identified at least one object by merging the 2D shape estimation with the 3D shape estimation for the identified at least one object.
Durch die vorliegende Erfindung ist auch ein Fahrunterstützungssystem zur Objektformerfassung basierend auf zwei Typen von Umgebungssensoren gemäß dem obigen Verfahren angegeben, wobei das Fahrunterstützungssystem mindestens einen Bildsensor als ersten Umgebungssensortyp zum Bereitstellen einer zweidimensionalen Datenpunktmatrix, die die Umgebung des Fahrzeugs in einem Bildsichtfeld darstellt, und mindestens einen Bereichssensor als zweiten Umgebungssensortyp zum Bereitstellen einer dreidimensionalen Datenpunktmatrix aufweist, die die Umgebung des Fahrzeugs in einem Bereichssichtfeld darstellt, wobei das Bereichssichtfeld das Bildsichtfeld mindestens teilweise überlappt.The present invention also specifies a driving support system for object shape detection based on two types of environment sensors according to the above method, the driving support system at least one image sensor as the first environment sensor type for providing a two-dimensional data point matrix that represents the environment of the vehicle in an image field of view, and at least one Area sensor as a second type of environment sensor for providing a three-dimensional data point matrix which represents the environment of the vehicle in an area field of view, the area field of view at least partially overlapping the image field of view.
Grundidee der Erfindung ist es, die Objekterfassung und -verarbeitung in einem Fahrunterstützungssystem zu verbessern, indem einfache Mittel zum Ausführen einer Verschmelzung durch individuelles Ausführen einer 2D/3D-Formabschätzung des identifizierten mindestens einen Objekts bereitgestellt werden. Dies wird erreicht, indem die zweidimensionale Datenpunktmatrix sowie die dreidimensionale Datenpunktmatrix verarbeitet werden und die Information bezüglich der zweidimensionalen Datenpunktmatrix und der dreidimensionalen Datenpunktmatrix, die die Umgebung des Fahrzeuges im Bildsichtfeld darstellt, verschmolzen werden. Auf diese Weise kann eine zuverlässige Formerfassung ausgeführt werden. Die Form des mindestens einen identifizierten Objekts kann für verschiedene Fahrunterstützungsfunktionen weiterverarbeitet werden.The basic idea of the invention is to improve the object detection and processing in a driving support system by providing simple means for carrying out a merging by individually carrying out a 2D / 3D shape estimation of the identified at least one object. This is achieved in that the two-dimensional data point matrix and the three-dimensional data point matrix are processed and the information relating to the two-dimensional data point matrix and the three-dimensional data point matrix, which represents the surroundings of the vehicle in the image field of view, are merged. In this way, reliable shape detection can be carried out. The shape of the at least one identified object can be processed further for various driving support functions.
Das Fahrzeug, d.h. das Ego-Fahrzeug, kann erfindungsgemäß ein beliebiger Fahrzeugtyp sein, z.B. ein PKW oder ein LKW. Das Fahrzeug kann durch einen menschlichen Fahrer manuell gefahren werden. Alternativ unterstützt das Fahrzeug halbautonomes oder autonomes Fahren. Daher kann das Fahrunterstützungssystem ein Fahrunterstützungssystem zum autonomen Bewegen des Fahrzeugs sein. Darüber hinaus sind auf dem Fachgebiet andersartige Fahrunterstützungssysteme bekannt. Es ist möglich, dass das Fahrzeug Insassen, einschließlich eines Fahrers, transportiert oder nur für den Warentransport genutzt wird.The vehicle, i.e. the ego vehicle can be any type of vehicle according to the invention, e.g. a car or a truck. The vehicle can be driven manually by a human driver. Alternatively, the vehicle supports semi-autonomous or autonomous driving. Therefore, the driving support system can be a driving support system for autonomously moving the vehicle. In addition, other types of driving assistance systems are known in the art. It is possible for the vehicle to be used to transport occupants, including a driver, or to be used only for the transport of goods.
Objekte in der Umgebung des Ego-Fahrzeugs können beliebige Objekte sein. Sie können statische Objekte wie Häuser, Verkehrszeichen oder geparkte Autos sein. Darüber hinaus können sich die Objekte bewegen, wie etwa verschiedenartige Fremdfahrzeuge oder Fußgänger.Objects in the environment of the ego vehicle can be any objects. They can be static objects like houses, road signs, or parked cars. In addition, the objects can move, such as different types of foreign vehicles or pedestrians.
Die Objektformerfassung bezieht sich insbesondere auf das Erfassen einer Darstellung des Objekts relativ zu einer Bodenebene, d.h. auf eine Breite und eine Länge des entsprechenden Objekts. Höheninformation der Objekte ist weniger wichtig, da das Fahrzeug auf einer Bodenebene fährt und nur in dieser Ebene mit dem Objekt wechselwirkt.Object shape detection relates in particular to the detection of a representation of the object relative to a ground plane, i. to a width and a length of the corresponding object. Height information of the objects is less important, since the vehicle drives on a ground level and only interacts with the object in this level.
Der Bildsensor ist eine Einrichtung, die Information erfasst und übermittelt, die dazu verwendet wird, eine zweidimensionale Datenpunktmatrix bereitzustellen, die wiederum in einer Ebene dargestellt werden kann. Der Bildsensor wandelt eine variable Abschwächung von Lichtwellen oder elektromagnetischen Wellen in Signale um, vorzugsweise in elektrische Signale. Lichtwellen oder elektromagnetische Wellen können unterschiedliche Wellenlängen haben. In Abhängigkeit von der Wellenlänge können verschiedene Typen von Bildsensoren verwendet werden. Beispielsweise kann für das sichtbare Spektrum des Lichts eine Kamera verwendet werden. Alternativ können Bildsensoren für elektromagnetische Wellen im Infrarotbereich, z.B. bei Wellenlängen von 1000 nm, oder im Ultraviolettbereich, z.B. bei Wellenlängen von 200 nm, verwendet werden. In Abhängigkeit vom Bildsensor kann die zweidimensionale Datenpunktmatrix in kartesischen Koordinaten oder in Polarkoordinaten bereitgestellt werden. Die Datenpunkte selbst können mit mehreren Informationselementen annotiert sein. Beispielsweise liefert eine Farbkamera ein pixelbasiertes Bild als zweidimensionale Daten, wobei die einzelnen Pixel Information enthalten, z.B. in den drei Farbkanälen RGB. Alternativ können die einzelnen Pixel Information über die Signalintensität und/oder einen Helligkeitswert enthalten. Ferner können die durch den Bildsensor aufgenommenen Bilder einzelne Standbilder oder Bildfolgen sein, die Videos oder Filme bilden. Beispielsweise kann ein Bildsensor ein optischer Sensor, eine Kamera, eine thermische Abbildungseinrichtung oder ein Nachtsichtsensor sein.The image sensor is a device that captures and transmits information that is used to provide a two-dimensional data point matrix, which in turn can be represented in a plane. The image sensor converts a variable attenuation of light waves or electromagnetic waves into signals, preferably into electrical signals. Light waves or electromagnetic waves can have different wavelengths. Various types of image sensors can be used depending on the wavelength. For example, a camera can be used for the visible spectrum of the light. Alternatively, image sensors for electromagnetic waves in the infrared range, e.g. at wavelengths of 1000 nm, or in the ultraviolet range, e.g. at wavelengths of 200 nm. Depending on the image sensor, the two-dimensional data point matrix can be provided in Cartesian coordinates or in polar coordinates. The data points themselves can be annotated with several information elements. For example, a color camera delivers a pixel-based image as two-dimensional data, the individual pixels containing information, e.g. in the three color channels RGB. Alternatively, the individual pixels can contain information about the signal intensity and / or a brightness value. Furthermore, the images recorded by the image sensor can be individual still images or image sequences that form videos or films. For example, an image sensor can be an optical sensor, a camera, a thermal imaging device or a night vision sensor.
Der zweite Umgebungssensortyp ist ein Bereichssensor mit einem Bereichssichtfeld, das das Bildsichtfeld mindestens teilweise überlappt. Der Bereichssensor ist eine Einrichtung, die die dreidimensionale Struktur der Umgebung aus dem Blickwinkel des Umgebungssensors erfasst und üblicherweise die Tiefe und/oder den Abstand zu nähesten Oberflächen misst. Ein Bereichssensor kann ein Sensor auf LiDAR-Basis, ein Sensor auf Radarbasis, ein Sensor auf Infrarotbasis oder ein Sensor auf Ultraschallbasis sein. Radarsensoren verwenden Funkwellen zum Bestimmen der Entfernung, des Winkels und/oder der Geschwindigkeit von Objekten. Sensoren auf Ultraschallbasis arbeiten nach dem Prinzip reflektierter Schallwellen. Sensoren auf LiDAR-Basis messen die Entfernung zu einem Objekt durch Bestrahlen des Objekts mit gepulstem Laserlicht und Messen von Reflexionen der emittierten Pulse. Unterschiede in den Laserrücklaufzeiten, den Wellenlängen und/oder der Intensität können dann bestimmt und verwendet werden, um die dreidimensionale Datenpunktmatrix bereitzustellen, die mindestens einen Teil der Umgebung des Fahrzeugs abdeckt. Sensoren auf Infrarotbasis arbeiten ebenfalls nach dem Prinzip reflektierter Lichtwellen. Sensoren auf Infrarotbasis sind jedoch weniger zuverlässig als die anderen Umgebungssensoren, da ihre Messwerte bei variierenden Lichtbedingungen tendenziell schwanken. Die Messungen der Abstände zu den Objekten können an einzelnen Punkten der Umgebung des Ego-Fahrzeugs über Abtastebenen hinweg ausgeführt werden, oder die Messungen können an jedem Punkt der Umgebung des Ego-Fahrzeugs ein vollständiges Bild mit Tiefen- und/oder Entfernungsmesswerten liefern. Die durch den Bereichssensor bestimmten Daten bilden eine dreidimensionale Datenpunktmatrix, die in sphärischen Koordinaten bereitgestellt werden kann und den Abstand zu einem Objekt und die Position des Objekts relativ zur Sensorposition enthalten, die durch den Polar- und Azimutwinkel (Theta, Phi) bestimmt ist. Alternativ können die Daten in kartesischen Koordinaten bestimmt oder in diese umgewandelt werden, wodurch die Position des Objekts relativ zu den Koordinatenachsen X, Y und Z und zum Ursprung des Koordinatensystems identifiziert wird.The second type of environment sensor is an area sensor having an area field of view that at least partially overlaps the image field of view. The area sensor is a device that captures the three-dimensional structure of the environment from the perspective of the environment sensor and usually measures the depth and / or the distance to the closest surfaces. An area sensor can be a LiDAR-based sensor, a radar-based sensor, an infrared-based sensor, or an ultrasonic-based sensor. Radar sensors use radio waves to determine the distance, angle, and / or speed of objects. Ultrasonic sensors work on the principle of reflected sound waves. LiDAR-based sensors measure the distance to an object by irradiating the object with pulsed laser light and measuring reflections of the emitted pulses. Differences in the laser return times, the wavelengths and / or the intensity can then be determined and used to provide the three-dimensional data point matrix that covers at least a part of the surroundings of the vehicle. Infrared sensors also work on the principle of reflected light waves. However, infrared-based sensors are less reliable than the other environmental sensors because their readings tend to fluctuate with varying lighting conditions. The measurements of the distances to the objects can be carried out at individual points in the environment of the ego vehicle across scanning planes, or the measurements can provide a complete image with depth and / or distance measurements at each point in the environment of the ego vehicle. The data determined by the area sensor form a three-dimensional data point matrix that can be provided in spherical coordinates and contain the distance to an object and the position of the object relative to the sensor position, which is determined by the polar and azimuth angles (theta, phi). Alternatively, the data can be determined or converted to Cartesian coordinates, thereby identifying the position of the object relative to the X, Y and Z coordinate axes and the origin of the coordinate system.
Das Bildsichtfeld ist ein Sektor oder allgemein ein Teil der Umgebung des Fahrzeugs, von dem der jeweilige Umgebungssensor Information erfasst. Das Bildsichtfeld eines Sensors kann durch das Design des Sensors beeinflusst werden. Beispielsweise sammelt eine Kamera Information über eine Linse, das ankommende Lichtwellen fokussiert. Die Krümmung der Linse beeinflusst das Bildsichtfeld der Kamera. Das Bildsichtfeld einer Kamera mit einer Fischaugenlinse ist weiter als das Bildsichtfeld einer Kamera mit einer herkömmlichen Linse. Das Bildsichtfeld kann auch durch die Größe oder die Abmessungen des Detektors beeinflusst werden, der verwendet wird, um die Abschwächung von Lichtwellen oder elektromagnetischen Wellen in elektrische Signale umzuwandeln. Es ist auch möglich, dass ein Sensor ein Bildsichtfeld hat, das 360° der Umgebung des Fahrzeugs abdeckt. Dies kann zum Beispiel durch einen rotierenden Sensor oder durch Verwendung mehrerer miteinander verbundener Umgebungssensoren erreicht werden, z.B. durch einen Satz von vier Weitwinkel- oder gar Fischaugenkameras, die sich an vier Seiten des Fahrzeugs befinden. Die Überlappung der beiden Sichtfelder ermöglicht es, Information bezüglich eines Objekts an einem bestimmten Ort mithilfe beider Umgebungssensoren bereitzustellen.The image field of view is a sector or generally a part of the surroundings of the vehicle from which the respective surroundings sensor detects information. The field of view of a sensor can be influenced by the design of the sensor. For example, a camera collects information through a lens that focuses incoming light waves. The curvature of the lens affects the camera's field of view. The field of view of a camera with a fisheye lens is wider than the field of view of a camera with a conventional lens. The image field of view can also be influenced by the size or dimensions of the detector that is used to convert the attenuation of light waves or electromagnetic waves into electrical signals. It is also possible for a sensor to have an image field of view that covers 360 ° of the surroundings of the vehicle. This can be achieved for example by a rotating sensor or by using several interconnected environmental sensors, e.g. through a set of four wide-angle or even fisheye cameras located on four sides of the vehicle. The overlapping of the two fields of view makes it possible to provide information relating to an object at a specific location using both environmental sensors.
Das Identifizieren mindestens eines Objekts in der zweidimensionalen Datenpunktmatrix bezieht sich auf das Erfassen eines bestimmten Objekts in der zweidimensionalen Datenpunktmatrix. Auf dem Fachgebiet sind verschiedene Techniken zum Identifizieren der Objekte bekannt, wie beispielsweis Bildverarbeitung.The identification of at least one object in the two-dimensional data point matrix relates to the detection of a specific object in the two-dimensional data point matrix. Various techniques are known in the art for identifying the objects, such as image processing.
Das Identifizieren mindestens eines Objekts in der dreidimensionalen Datenpunktmatrix bezieht sich ebenfalls auf das Erfassen eines bestimmten Objekts in der dreidimensionalen Datenpunktmatrix. Das Erfassen des Objekts basiert beispielsweise auf der Erfassung einer Gruppe von Datenpunkten, die nahe beieinander liegen.The identification of at least one object in the three-dimensional data point matrix also relates to the detection of a specific object in the three-dimensional data point matrix. The detection of the object is based, for example, on the detection of a group of data points that are close to one another.
Verschiedene Ansätze zum Ausführen einer 2D-Formabschätzung des identifizierten mindestens einen Objekts basierend auf der zweidimensionalen Datenpunktmatrix und zum Ausführen einer 3D-Formabschätzung des identifizierten mindestens einen Objekts basierend auf der dreidimensionalen Datenpunktmatrix werden nachfolgend diskutiert. Various approaches for performing a 2D shape estimation of the identified at least one object based on the two-dimensional data point matrix and for performing a 3D shape estimation of the identified at least one object based on the three-dimensional data point matrix are discussed below.
Auf dem Fachgebiet sind bereits verschiedene Verfahren zum Verschmelzen von Information bekannt. Einige Details bezüglich des Verschmelzens der 2D-Formabschätzung und der 3D-Formabschätzung für das identifizierte mindestens eine Objekt sind nachstehend angegeben.Various methods of merging information are known in the art. Some details regarding the merging of the 2D shape estimate and the 3D shape estimate for the identified at least one object are given below.
Die Schritte des Verfahrens können allgemein in einer beliebigen geeigneten Reihenfolge ausgeführt werden. Dies beinhaltet, dass einige Schritte z.B. parallel ausgeführt werden können. Beispielsweise können die zum Ausführen der 2D-Formabschätzung des identifizierten mindestens einen Objekts erforderlichen Schritte parallel zu den Schritten ausgeführt werden, die zum Ausführen der 3D-Formabschätzung des identifizierten mindestens einen Objekts erforderlich sind.The steps of the method can generally be carried out in any suitable order. This implies that some steps e.g. can be run in parallel. For example, the steps required to carry out the 2D shape estimation of the identified at least one object can be carried out in parallel with the steps which are necessary to carry out the 3D shape estimation of the identified at least one object.
Weiterhin kann das Verfahren allgemein mit mehreren Umgebungssensoren des gleichen Typs ausgeführt werden. Daher wird die Sensorinformation dieser Sensoren einzeln verarbeitet, um jeweilige Formabschätzungen auszuführen. Darauf basierend kann das Bestimmen der Form des identifizierten mindestens einen Objekts durch Verschmelzen mehrerer 2D-Formabschätzungen und/oder mehrerer 3D-Formabschätzungen für das identifizierte mindestens eine Objekt ausgeführt werden.Furthermore, the method can generally be carried out with a plurality of environmental sensors of the same type. Therefore, the sensor information of these sensors is processed one by one to carry out respective shape estimates. Based on this, the shape of the identified at least one object can be determined by merging several 2D shape estimates and / or multiple 3D shape estimations are performed for the identified at least one object.
Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Ausführen einer 2D-Formabschätzung des identifizierten mindestens einen Objekts das Bestimmen eines 2D-Konfidenzgrades für die 2D-Formabschätzung für das identifizierte mindestens eine Objekt auf, weist der Schritt zum Ausführen einer 3D-Formabschätzung des identifizierten mindestens einen Objekts das Bestimmen eines 3D-Konfidenzgrades für die 3D-Formabschätzung für das identifizierte mindestens eine Objekt auf und weist der Schritt zum Bestimmen der Form des identifizierten mindestens einen Objekts durch Verschmelzen der 2D-Formabschätzung und der 3D-Formabschätzung für das identifizierte mindestens eine Objekt das Verschmelzen der 2D-Formabschätzung und der 3D-Formabschätzung für das identifizierte mindestens eine Objekt unter zusätzlicher Berücksichtigung des 2D-Konfidenzgrades und des 3D-Konfidenzgrades der 2D-Formabschätzung und der 3D-Formabschätzung für das identifizierte mindestens eine Objekt auf. Der Konfidenzgrad liefert eine Wahrscheinlichkeit dafür, dass die jeweilige 2D/3D-Formabschätzung korrekt ist. Daher liegt der Konfidenzgrad innerhalb des Intervalls [0; 1]. Normalerweise kann der Konfidenzgrad als Konfidenzgrad mit einer Gaußverteilung betrachtet werden. Basierend auf dem Konfidenzgrad kann das Verschmelzen der 2D-Formabschätzung und der 3D-Formabschätzung vereinfacht werden. Je höher der jeweilige Konfidenzgrad ist, desto besser ist die 2D/3D-Formabschätzung. Beim Bestimmen der Form des identifizierten mindestens einen Objekts haben daher Formabschätzungen mit einem höheren Konfidenzgrad einen stärkeren Einfluss auf die Bestimmung der Form als Formabschätzungen mit einem niedrigeren Konfidenzgrad.According to a modified embodiment of the invention, the step of performing a 2D shape estimation of the identified at least one object comprises determining a 2D degree of confidence for the 2D shape estimation for the identified at least one object, the step of executing a 3D shape estimation of the identified object at least one object has the determination of a 3D confidence level for the 3D shape estimation for the identified at least one object and comprises the step of determining the shape of the identified at least one object by merging the 2D shape estimation and the 3D shape estimation for the identified at least one Object, the merging of the 2D shape estimation and the 3D shape estimation for the identified at least one object with additional consideration of the 2D degree of confidence and the 3D degree of confidence of the 2D shape estimation and the 3D shape estimation for the identified at least one object. The degree of confidence provides a probability that the respective 2D / 3D shape estimate is correct. Therefore, the degree of confidence lies within the interval [0; 1]. Usually, the confidence level can be viewed as a confidence level with a Gaussian distribution. Based on the degree of confidence, the merging of the 2D shape estimation and the 3D shape estimation can be simplified. The higher the respective degree of confidence, the better the 2D / 3D shape estimation. When determining the shape of the identified at least one object, shape estimates with a higher degree of confidence therefore have a stronger influence on the determination of the shape than shape estimates with a lower degree of confidence.
Gemäß einer modifizierten Ausführungsform der Erfindung weist das Verfahren einen zusätzlichen Schritt zum Bestimmen eines Konfidenzgrades für die Form des identifizierten mindestens einen Objekts auf, insbesondere durch Verschmelzen der 2D-Formabschätzung und der 3D-Formabschätzung für das identifizierte mindestens eine Objekt mit dem 2D-Konfidenzgrad und dem 3D-Konfidenzgrad der 2D-Formabschätzung und der 3D-Formabschätzung für das identifizierte mindestens eine Objekt. Dadurch kann auch die Form des identifizierten mindestens einen Objekts mit einem Konfidenzgrad verknüpft werden, der verwendet werden kann, wenn die Form des identifizierten mindestens einen Objekts weiterverarbeitet wird, insbesondere in einem Fahrunterstützungssystem.According to a modified embodiment of the invention, the method has an additional step of determining a degree of confidence for the shape of the identified at least one object, in particular by merging the 2D shape estimation and the 3D shape estimation for the identified at least one object with the 2D degree of confidence and the 3D degree of confidence of the 2D shape estimate and the 3D shape estimate for the identified at least one object. As a result, the shape of the identified at least one object can also be linked to a degree of confidence that can be used when the shape of the identified at least one object is further processed, in particular in a driving assistance system.
Gemäß einer modifizierten Ausführungsform der Erfindung weist das Verfahren einen zusätzlichen Schritt zum Verfolgen des identifizierten mindestens einen Objekts zwischen verschiedenen Identifizierungen des mindestens einen Objekts in der zweidimensionalen Datenpunktmatrix und/oder in der dreidimensionalen Datenpunktmatrix auf, und weist der Schritt zum Ausführen der 2D-Formabschätzung und/oder der 3D-Formabschätzung des identifizierten mindestens einen Objekts das Ausführen der 2D-Formabschätzung und/oder der 3D-Formabschätzung unter Berücksichtigung der verfolgten Identifizierungen des mindestens einen Objekts auf. Normalerweise bewegen sich Objekte im Laufe der Zeit relativ zum Fahrzeug, entweder aufgrund einer Bewegung des Fahrzeugs oder aufgrund einer Bewegung des Objekts. Daher können die Objekte durch den Bildsensor verschiedenartig gesehen werden und/oder verschiedenen Umgebungsbedingungen ausgesetzt sein. Je mehr Information in Bezug auf das identifizierte mindestens eine Objekt verfügbar ist, desto besser ist die 2D-Formabschätzung und/oder die 3D-Formabschätzung. Infolge der Bewegungen des Ego-Fahrzeugs und/oder der Objekte ermöglicht das Verfolgen des identifizierten mindestens einen Objekts eine Zuordnung verschiedener 2D-Formabschätzungen und/oder 3D-Formabschätzungen über die Zeit zu den gleichen Objekten.According to a modified embodiment of the invention, the method has an additional step of tracking the identified at least one object between different identifications of the at least one object in the two-dimensional data point matrix and / or in the three-dimensional data point matrix, and has the step of performing the 2D shape estimation and / or the 3D shape estimation of the identified at least one object executes the 2D shape estimation and / or the 3D shape estimation taking into account the tracked identifications of the at least one object. Typically, objects move relative to the vehicle over time, either due to movement of the vehicle or due to movement of the object. Therefore, the objects can be seen differently by the image sensor and / or be exposed to different environmental conditions. The more information is available in relation to the identified at least one object, the better the 2D shape estimation and / or the 3D shape estimation. As a result of the movements of the ego vehicle and / or the objects, tracking the identified at least one object enables different 2D shape estimates and / or 3D shape estimates over time to be assigned to the same objects.
Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Bestimmen eines 2D-Konfidenzgrades für die 2D-Formabschätzung und/oder zum Bestimmen eines 3D-Konfidenzgrades für die 3D-Formabschätzung für das identifizierte mindestens eine Objekt das Bestimmen eines 2D-Konfidenzgrades und/oder eines 3D-Konfidenzgrades für eine Breite und eine Länge des identifizierten mindestens einen Objekts auf. Der 2D/3D-Konfidenzgrad kann für die Breite und die Länge unabhängig bestimmt werden. In anderen Fällen kann jedoch ein gemeinsamer Konfidenzgrad für die Breite und die Länge bestimmt werden. Die Breite und die Länge sind äußerst wichtig für das Bestimmen der Form des identifizierten mindestens einen Objekts. Die Breite und die Länge sind vorzugsweise in Bezug auf das Ego-Fahrzeug definiert, d.h. gemäß der Längen- und der Breitenrichtung des Ego-Fahrzeugs, obwohl auch andere Definitionen verwendet werden können. Wesentlich ist lediglich ein Unterschied zwischen verschiedenen Seiten des identifizierten mindestens einen Objekts, z.B. eine Vorderseite und eine laterale Seite. Die Länge und die Breite können angepasst werden, falls das identifizierte mindestens eine Objekt sich dreht und dem Ego-Fahrzeug während seiner Beobachtungsdauer verschiedene Seiten zuwendet, z.B. während es im Bildsichtfeld mindestens eines der Umgebungssensoren erscheint.According to a modified embodiment of the invention, the step of determining a 2D degree of confidence for the 2D shape estimation and / or of determining a 3D degree of confidence for the 3D shape estimation for the identified at least one object comprises determining a 2D degree of confidence and / or a 3D degree of confidence for a latitude and a longitude of the identified at least one object. The 2D / 3D degree of confidence can be determined independently for latitude and longitude. In other cases, however, a common confidence level can be determined for latitude and longitude. The latitude and longitude are extremely important in determining the shape of the identified at least one object. The width and length are preferably defined in relation to the ego vehicle, i.e. according to the longitudinal and latitudinal directions of the ego vehicle, although other definitions can be used. The only important thing is a difference between different sides of the identified at least one object, e.g. a front and a lateral side. The length and the width can be adjusted if the identified at least one object rotates and faces the ego vehicle different sides during its observation period, e.g. while at least one of the environmental sensors appears in the image field of view.
Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Bestimmen eines 3D-Konfidenzgrades für eine Breite und eine Länge des identifizierten mindestens einen Objekts das Bestimmen des 3D-Konfidenzgrades für die Breite und die Länge des identifizierten mindestens einen Objekts basierend auf einer Position des identifizierten mindestens einen Objekts in Bezug auf das Fahrzeug auf, insbesondere in Bezug auf eine Position des Bereichssensors. Die Position weist vorzugsweise eine Winkelposition des jeweiligen Objekts relativ zum Fahrzeug auf. In Abhängigkeit von der Winkelposition wenden Objekte wie beispielsweise Fremdfahrzeuge oder andere rechteckige Objekte dem Fahrzeug ihre Vorder-/Rückseite oder ihre lateralen Seiten unterschiedlich zu. Beispielsweise kann für ein Fremdfahrzeug vor dem Ego-Fahrzeug keine Längeninformation bestimmt werden, da die lateralen Seiten dem Ego-Fahrzeug und dem Raumtypsensor nicht zugewandt sind. Daher ist der Konfidenzgrad für die Breite des Fremdfahrzeugs sehr hoch, während der Konfidenzgrad für die Länge ziemlich niedrig ist. Die gleichen Prinzipien gelten für ein Fremdfahrzeug neben dem Ego-Fahrzeug, bei dem keine Breiteninformation bestimmt werden kann, da die Vorder-/Rückseite des Fremdfahrzeugs nicht dem Ego-Fahrzeug und dem Bereichssensor zugewandt sind. Daher ist der Konfidenzgrad für die Länge des Fremdfahrzeugs sehr hoch, während der Konfidenzgrad für die Breite ziemlich niedrig ist. Die Position kann ferner einen Abstand des jeweiligen Objekts relativ zum Fahrzeug aufweisen. Je größer der Abstand ist, desto geringer ist die Anzahl an Datenpunkten, die das jeweilige Objekt abdecken. Dies führt zu niedrigeren Konfidenzgraden für Objekte, die weiter vom Ego-Fahrzeug entfernt sind.According to a modified embodiment of the invention, the step of determining a 3D degree of confidence for a latitude and a length of the identified at least one object comprises determining the 3D degree of confidence for the latitude and longitude the length of the identified at least one object based on a position of the identified at least one object in relation to the vehicle, in particular in relation to a position of the area sensor. The position preferably has an angular position of the respective object relative to the vehicle. Depending on the angular position, objects such as third-party vehicles or other rectangular objects face the vehicle with their front / rear or their lateral sides differently. For example, no length information can be determined for an external vehicle in front of the ego vehicle, since the lateral sides do not face the ego vehicle and the room type sensor. Therefore, the confidence level for the width of the other vehicle is very high, while the confidence level for the length is quite low. The same principles apply to an external vehicle in addition to the ego vehicle, in which no width information can be determined because the front / rear of the external vehicle do not face the ego vehicle and the area sensor. Therefore, the degree of confidence for the length of the other vehicle is very high, while the degree of confidence for the width is quite low. The position can also have a distance of the respective object relative to the vehicle. The greater the distance, the lower the number of data points that cover the respective object. This leads to lower levels of confidence for objects that are further away from the ego vehicle.
Gemäß einer modifizierten Ausführungsform der Erfindung weist das Verfahren einen zusätzlichen Schritt zum Umwandeln des 2D-Konfidenzgrades für die 2D-Formabschätzung des identifizierten mindestens einen Objekts, des 3D-Konfidenzgrades für die 3D-Formabschätzung des identifizierten mindestens einen Objekts und/oder des Konfidenzgrades für die Form des identifizierten mindestens einen Objekts in Konfidenzabstandsinformation auf, insbesondere basierend auf einer Nachschlagetabelle. Der Konfidenzgrad ist eine Wahrscheinlichkeit dafür, dass die bestimmte Form des jeweiligen Objekts korrekt ist. Daher ist der Konfidenzgrad ein Wert innerhalb des Intervalls [0; 1]. In einigen Fällen kann es jedoch für eine leichtere Weiterverarbeitung der Form des identifizierten mindestens einen Objekts bevorzugt sein, die Konfidenzabstandsinformation bereitzustellen, die ein Intervall definiert, das die korrekte Form mit einer vorgegebenen Wahrscheinlichkeit enthält. In diesem Zusammenhang wird die Form als eine Form beispielsweise mit einer Gaußverteilung betrachtet, und das Intervall basiert auf einer Standardabweichung σ von einem Erwartungswert µ. Daher kann die Konfidenzabstandsinformation in einem Intervall von z.B. [5 m; 0,1 m] liegen. Die Nachschlagetabelle ermöglicht einen einfachen und schnellen Zugriff auf Konfidenzabstandsinformation basierend auf dem Konfidenzgrad. Die Umwandlung kann durch einen erfahrenen Benutzer definiert werden. Darüber hinaus kann die Umwandlung z.B. von einem Kontext abhängen.According to a modified embodiment of the invention, the method has an additional step for converting the 2D degree of confidence for the 2D shape estimation of the identified at least one object, the 3D degree of confidence for the 3D shape estimation of the identified at least one object and / or the degree of confidence for the Form of the identified at least one object in confidence distance information, in particular based on a look-up table. The degree of confidence is a probability that the particular shape of the respective object is correct. Therefore the degree of confidence is a value within the interval [0; 1]. In some cases, however, for easier further processing of the shape of the identified at least one object, it may be preferred to provide the confidence distance information that defines an interval that contains the correct shape with a predetermined probability. In this connection, the shape is regarded as a shape having a Gaussian distribution, for example, and the interval is based on a standard deviation σ from an expected value µ. Therefore, the confidence distance information can be in an interval of e.g. [5 m; 0.1 m]. The look-up table enables easy and quick access to confidence distance information based on the confidence level. The conversion can be defined by an experienced user. In addition, the conversion can e.g. depend on a context.
Gemäß einer modifizierten Ausführungsform der Erfindung weist das Verfahren einen zusätzlichen Schritt zum Ausführen einer Objektklassifizierung für das identifizierte mindestens eine Objekt in der zweidimensionalen Datenpunktmatrix auf, und weist der Schritt zum Ausführen einer 2D-Formabschätzung des identifizierten mindestens einen Objekts das Ausführen der 2D-Formabschätzung des identifizierten mindestens einen Objekts unter zusätzlicher Berücksichtigung der Klassifizierung des identifizierten mindestens einen Objekts auf. Da die Information von dem mindestens einen Bildsensor keine Abstandsinformation enthält, ist die Objektklassifizierung ein geeignetes Mittel zum Bestimmen einer 2D-Formabschätzung basierend auf der zweidimensionalen Datenpunktmatrix, die durch den mindestens einen Bildsensor bereitgestellt wird. Sensorinformation von Bildsensoren ist in der Regel zur Objektklassifizierung hochgradig geeignet. Basierend auf der Klassifizierung des identifizierten mindestens einen Objekts kann seine Form z.B. basierend auf Forminformation bestimmt werden, die Objekten aus der jeweiligen Klasse zugeordnet ist.According to a modified embodiment of the invention, the method has an additional step for executing an object classification for the identified at least one object in the two-dimensional data point matrix, and the step for executing a 2D shape estimation of the identified at least one object comprises executing the 2D shape estimation of the identified at least one object with additional consideration of the classification of the identified at least one object. Since the information from the at least one image sensor does not contain any distance information, the object classification is a suitable means for determining a 2D shape estimate based on the two-dimensional data point matrix that is provided by the at least one image sensor. Sensor information from image sensors is generally highly suitable for object classification. Based on the classification of the identified at least one object, its shape can e.g. can be determined based on shape information which is assigned to objects from the respective class.
Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Ausführen einer Objektklassifizierung für das identifizierte mindestens eine Objekt das Definieren eines Satzes von Objektklassen und das Zuordnen einer der Klassen zu dem identifizierten mindestens einen Objekt auf, wobei jeder Objektklasse eine vordefinierte Forminformation zugewiesen ist, und weist der Schritt zum Ausführen einer 2D-Formabschätzung des identifizierten mindestens einen Objekts das Ausführen der 2D-Formabschätzung des identifizierten mindestens einen Objekts basierend auf der vordefinierten Forminformation auf. Daher ist jeder Klasse von Objekten typische Forminformation zugewiesen. Diese typische Forminformation kann statische Information sein, oder sie kann dynamisch modifiziert werden, z.B. basierend auf einem Ort des identifizierten mindestens einen Objekts oder dergleichen. Beispielsweise kann eine durchschnittliche Länge von Autos in verschiedenen Ländern unterschiedlich sein. Die typische Forminformation kann z.B. basierend auf statistischen Daten bestimmt werden. Eine einfache Implementierung kann basierend auf einer Nachschlagetabelle mit einem Satz von Klassen und entsprechender Forminformation realisiert werden.According to a modified embodiment of the invention, the step of performing an object classification for the identified at least one object comprises defining a set of object classes and assigning one of the classes to the identified at least one object, each object class being assigned predefined shape information, and has the step of performing a 2D shape estimation of the identified at least one object includes performing the 2D shape estimation of the identified at least one object based on the predefined shape information. Therefore, typical shape information is assigned to each class of objects. This typical shape information can be static information or it can be modified dynamically, e.g. based on a location of the identified at least one object or the like. For example, an average length of cars may be different in different countries. The typical shape information can e.g. can be determined based on statistical data. A simple implementation can be realized based on a look-up table with a set of classes and corresponding shape information.
Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Ausführen einer Objektklassifizierung für das identifizierte mindestens eine Objekt das Bestimmen einer Wahrscheinlichkeit dafür, dass das identifizierte mindestens eine Objekts einer Klasse zugehörig ist, basierend auf mehreren Klassifizierungen des identifizierten mindestens einen Objekts auf. Wenn also das gleiche Objekt über einen längeren Zeitraum beobachtet werden kann und das Verfahren kontinuierlich ausgeführt wird, führt dies zu mehreren Identifizierungen identischer Objekte in der Umgebung des Fahrzeugs. Wenn sich jedoch das identifizierte mindestens eine Objekt oder das Ego-Fahrzeug bewegt, kann sich die Sichtbarkeit des jeweiligen Objekts ändern. Dies bezieht sich auf unterschiedliche Abstände des identifizierten mindestens einen Objekts, unterschiedliche Betrachtungswinkel, unterschiedliche Orientierungen des identifizierten mindestens einen Objekts und des Ego-Fahrzeugs relativ zueinander und so weiter. Außerdem können Änderungen der Umgebungsbedingungen zu Änderungen der Sichtbarkeit des identifizierten mindestens einen Objekts führen. Insgesamt wird das identifizierte mindestens eine Objekt während seiner Beobachtungsdauer, d.h. während es sich in der Umgebung des Fahrzeugs befindet, höchstwahrscheinlich unterschiedlich klassifiziert. Aufgrund der mehreren Klassifizierungen des jeweiligen Objekts können Probleme bei der Handhabung falscher Klassifizierungen überwunden werden.According to a modified embodiment of the invention, the step of performing an object classification for the identified at least one object comprises determining a probability that the identified at least one object belongs to a class, based on multiple classifications of the identified at least one object. If the same object can be observed over a longer period of time and the method is carried out continuously, this leads to several identifications of identical objects in the vicinity of the vehicle. However, if the identified at least one object or the ego vehicle moves, the visibility of the respective object can change. This relates to different distances of the identified at least one object, different viewing angles, different orientations of the identified at least one object and the ego vehicle relative to one another and so on. In addition, changes in the environmental conditions can lead to changes in the visibility of the identified at least one object. Overall, the identified at least one object will most likely be classified differently during its observation period, ie while it is in the vicinity of the vehicle. Due to the multiple classifications of the respective object, problems in handling incorrect classifications can be overcome.
Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Ausführen einer Objektklassifizierung für das identifizierte mindestens eine Objekt das Klassifizieren des identifizierten mindestens einen Objekts in der zweidimensionalen Datenpunktmatrix unter Verwendung eines Bilderkennungsalgorithmus und/oder unter Verwendung eines neuronalen Netzwerks auf. Das Verarbeiten einer zweidimensionalen Datenpunktmatrix vom Bildsensor, insbesondere von Videodaten, die eine Folge von mehreren Einzelbildern pro Sekunde enthalten, ist eine große Herausforderung. Riesige Datenmengen müssen in Echtzeit verarbeitet werden, um das identifizierte mindestens eine Objekt ohne Verzögerungen zuverlässig zu klassifizieren. Die Ressourcen des Fahrzeugs zum Verarbeiten der Daten sind jedoch in Bezug auf den Platz zum Unterbringen von Verarbeitungseinrichtungen und auch in Bezug auf verfügbare Rechenleistung und elektrische Leistung begrenzt. Selbst wenn die technischen Probleme behoben werden, sind die Ressourcen hinsichtlich des Preises beschränkt, um Fahrzeuge zu einem erschwinglichen Preis anzubieten. Eine leistungsfähige Möglichkeit zum Verarbeiten der zweidimensionalen Datenpunktmatrix besteht in der Verwendung eines neuronalen Netzwerks. Herkömmliche Anwendungen neuronaler Netzwerke zur Bildverarbeitung basieren typischerweise auf tiefen neuronalen Netzwerken. Die Verwendung solcher Netzwerktypen hat vielversprechende Ergebnisse zu einem erschwinglichen Preis aufgezeigt. Neuronale Netzwerke weisen eine Eingabe- und eine Ausgabeschicht sowie eine oder mehrere verborgene Schichten auf. Die verborgenen Schichten eines tiefen neuronalen Netzwerks bestehen typischerweise aus konvolutionellen Schichten, Pooling-Schichten, Fully-Connected-Schichten und Normalisierungsschichten. Die konvolutionellen Schichten wenden eine Faltungsoperation auf die Eingabe an und übergeben das Ergebnis an die nächste Schicht. Die Faltung emuliert die Antwort eines einzelnen Neurons auf visuelle Reize. Alternativ oder zusätzlich kann ein Bilderkennungsalgorithmus ausgeführt werden. Bilderkennung kann beispielsweise auf genetischen Algorithmen, auf Ansätzen, die auf CAD-ähnlichen Objektmodellen basieren, wie Primal Sketch, auf erscheinungbildbasierten Verfahren wie Edge Matching oder Conquer And Search, oder auf anderen merkmalsbasierten Verfahren wie Histogramm of Oriented Gradients (HOG), Haar-like Features, Scale-Invariant Feature Transformation (SIFT) oder Speeded UP Robust Feature (SURF) basieren.According to a modified embodiment of the invention, the step of performing an object classification for the identified at least one object includes classifying the identified at least one object in the two-dimensional data point matrix using an image recognition algorithm and / or using a neural network. The processing of a two-dimensional data point matrix from the image sensor, in particular video data that contains a sequence of several individual images per second, is a great challenge. Huge amounts of data have to be processed in real time in order to reliably classify the identified at least one object without delays. However, the resources of the vehicle for processing the data are limited in terms of the space for accommodating processing devices and also in terms of available computing power and electrical power. Even if the technical problems are resolved, resources are limited in terms of price to offer vehicles at an affordable price. A powerful way of processing the two-dimensional data point matrix is to use a neural network. Conventional applications of neural networks for image processing are typically based on deep neural networks. The use of such network types has shown promising results at an affordable price. Neural networks have an input and an output layer and one or more hidden layers. The hidden layers of a deep neural network typically consist of convolutional layers, pooling layers, fully connected layers and normalization layers. The convolutional layers apply a convolution operation to the input and pass the result to the next layer. The convolution emulates the response of a single neuron to visual stimuli. Alternatively or additionally, an image recognition algorithm can be carried out. Image recognition can, for example, be based on genetic algorithms, on approaches based on CAD-like object models such as Primal Sketch, on appearance-based processes such as Edge Matching or Conquer And Search, or on other feature-based processes such as Histogram of Oriented Gradients (HOG), Haar-like Features, Scale-Invariant Feature Transformation (SIFT) or Speeded UP Robust Feature (SURF).
Ähnlicherweise kann bereits der Schritt zum Identifizieren des mindestens einen Objekts in der zweidimensionalen Datenpunktmatrix das Identifizieren des mindestens einen Objekts in der zweidimensionalen Datenpunktmatrix unter Verwendung eines Bilderkennungsalgorithmus und/oder unter Verwendung eines neuronalen Netzwerks aufweisen. Die vorstehenden Prinzipien gelten auch in diesem Fall.Similarly, the step of identifying the at least one object in the two-dimensional data point matrix can already include identifying the at least one object in the two-dimensional data point matrix using an image recognition algorithm and / or using a neural network. The above principles also apply in this case.
Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Bestimmen der Form des identifizierten mindestens einen Objekts durch Verschmelzen der 2D-Formabschätzung und der 3D-Formabschätzung für das identifizierte mindestens eine Objekt das Ausführen eines Bayesschen Verschmelzungsalgorithmus auf. Es können jedoch auch andere Algorithmen zum Verschmelzen der 2D-Formabschätzung und der 3D-Formabschätzung verwendet werden. Weiterhin kann der gleiche Algorithmus verwendet werden, um z.B. einen Konfidenzgrad für die Form des jeweiligen Objekts bereitzustellen.According to a modified embodiment of the invention, the step of determining the shape of the identified at least one object by merging the 2D shape estimation and the 3D shape estimation for the identified at least one object includes executing a Bayesian merging algorithm. However, other algorithms for merging the 2D shape estimation and the 3D shape estimation can also be used. Furthermore, the same algorithm can be used to e.g. provide a degree of confidence for the shape of each object.
Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Bereitstellen einer zweidimensionalen Datenpunktmatrix, die die Umgebung des Fahrzeugs im Bildsichtfeld des mindestens einen Bildsensors darstellt, das Bereitstellen der zweidimensionalen Datenpunktmatrix durch mindestens eine Kamera auf. Bei herkömmlichen Fahrzeugen sind häufig eine oder mehrere Kameras zum Überwachen der Umgebung bereits integriert. In diesem Fall verursacht die Verwendung einer Kamera als Bildsensor keine zusätzlichen Kosten, wenn das Verfahren verwendet wird. Weiterhin können Kameras mit speziellen Linsen, z.B. mit Fischaugenlinsen, verwendet werden, die ein weites Sichtfeld von bis zu 180 Grad oder sogar mehr haben. Kameras liefern genaue Information über die Art eines Objekts. Durch die Verwendung der Nachtsichttechnologie, bei der Teile des für einen Menschen nicht sichtbaren elektromagnetischen Spektrums wie Nahinfrarot- oder Ultraviolettstrahlung berücksichtigt werden und bei der sehr empfindliche Detektoren verwendet werden, kann durch die Kamera in Situationen, in denen ein menschlicher Fahrer eingeschränkt ist, Information über Objekte erfassen.According to a modified embodiment of the invention, the step of providing a two-dimensional data point matrix, which represents the surroundings of the vehicle in the image field of view of the at least one image sensor, comprises providing the two-dimensional data point matrix by at least one camera. In conventional vehicles, one or more cameras for monitoring the surroundings are often already integrated. In this case, the use of a camera as an image sensor does not add any additional costs when the method is used. Furthermore, cameras with special lenses, for example with fisheye lenses, can be used, which have a wide field of view of up to 180 degrees or even more. Cameras provide precise information about the type of object. By using night vision technology, in which parts of the electromagnetic spectrum that is invisible to humans, such as near-infrared or ultraviolet radiation, using very sensitive detectors, can capture information about objects by the camera in situations where a human driver is restricted.
Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Bereitstellen einer dreidimensionalen Datenpunktmatrix, die die Umgebung des Fahrzeugs im Bereichssichtfeld darstellt, durch mindestens einen Bereichssensor das Bereitstellen der dreidimensionalen Datenpunktmatrix durch mindestens einen Sensor auf LiDAR-Basis und/oder durch mindestens einen Radarsensor auf. In vielen Fahrzeugen wird/werden ein Sensor auf LiDAR-Basis und/oder ein Radarsensor verwendet, z.B. in Kollisionsvermeidungssystemen, um beispielsweise einen Abstand zu einem Fremdfahrzeug vor dem Ego-Fahrzeug zu bestimmen. Sensoren auf LiDAR-Basis und/oder Radarsensoren liefern genaue Information über eine Position eines Objekts, insbesondere über seinen Abstand zum Ego-Fahrzeug. Sensoren auf LiDAR-Basis und/oder Radarsensoren können Sichtfelder von bis zu 360 Grad aufweisen, z.B. unter Verwendung rotierender Sensoren. Es ist auch möglich, mehrere Bereichssensoren zu verwenden, z.B. eine Kombination aus einem Sensor auf LiDAR-Basis und einem Radarsensor.According to a modified embodiment of the invention, the step of providing a three-dimensional data point matrix, which represents the surroundings of the vehicle in the area field of view, by means of at least one area sensor, comprises providing the three-dimensional data point matrix by means of at least one LiDAR-based sensor and / or by at least one radar sensor. Many vehicles use a LiDAR based sensor and / or a radar sensor, e.g. in collision avoidance systems, for example to determine a distance to another vehicle in front of the ego vehicle. LiDAR-based sensors and / or radar sensors provide precise information about the position of an object, in particular about its distance from the ego vehicle. LiDAR based sensors and / or radar sensors can have fields of view of up to 360 degrees, e.g. using rotating sensors. It is also possible to use several area sensors, e.g. a combination of a LiDAR-based sensor and a radar sensor.
Diese und andere Aspekte der Erfindung werden anhand der nachstehend beschriebenen Ausführungsformen ersichtlich und erläutert. Einzelne Merkmale, die in den Ausführungsformen dargestellt sind, können für sich alleine oder in Kombination einen Aspekt der vorliegenden Erfindung bilden. Merkmale der verschiedenen Ausführungsformen können von einer Ausführungsform auf eine andere Ausführungsform übertragen werden.These and other aspects of the invention will be apparent and illustrated in the embodiments described below. Individual features that are shown in the embodiments can form an aspect of the present invention on their own or in combination. Features of the various embodiments can be transferred from one embodiment to another embodiment.
Es zeigen:
-
1 eine schematische Ansicht eines Fahrzeugs gemäß einer ersten bevorzugten Ausführungsform mit einem Fahrunterstützungssystem mit zwei Typen von Umgebungssensoren, einschließlich eines Bereichssensors und eines Bildsensors, und mit einer Verarbeitungseinheit in einer Umgebung mit mehreren Objekten; -
2 eine schematische Ansicht des Fahrzeugs von1 mit vier Bereichssichtfeldern, die eine Rundumsicht des Bereichssensors liefern, zusammen mit einer Konfidenzabschätzung für das hinter dem Ego-Fahrzeug befindliche identifizierte Objekt; -
3 eine schematische Ansicht des Fahrzeugs von2 mit einer Konfidenzabschätzung für das identifizierte Objekt, wobei sich das identifizierte Objekt neben dem Ego-Fahrzeug befindet; -
4 ein Diagramm zum Darstellen eines Konfidenzgrades für eine 2D-Formabschätzung basierend auf einer Verfolgung von Objekten über die Zeit und dem Ausführen einer Klassifizierung der Objekte; -
5 ein Diagramm zum Darstellen des Konfidenzgrades für eine 2D-Formabschätzung für mehrere Objekte basierend auf einer Klassifizierung der Objekte mit einer Umwandlung in Konfidenzabstandsinformation; -
6 ein Diagramm zum Darstellen einer Verschmelzung einer 2D-Formabschätzung und einer 3D-Formabschätzung für zwei Objekte basierend auf einer Klassifizierung der Objekte mit einer Umwandlung in Konfidenzabstandsinformation; und -
7 ein Diagramm zum Darstellen eines Konfidenzgrades für eine 2D-Formabschätzung für mehrere Objekte basierend auf einer Klassifizierung der Objekte mit einer Umwandlung in Konfidenzabstandsinformation. -
1 zeigtein Fahrzeug 10 mit einem Fahrunterstützungssystem 12 gemäß einer ersten bevorzugten Ausführungsform.
-
1 a schematic view of a vehicle according to a first preferred embodiment with a driving support system with two types of environment sensors, including a range sensor and an image sensor, and with a processing unit in an environment with a plurality of objects; -
2 a schematic view of the vehicle of FIG1 with four area fields of view that provide an all-round view of the area sensor, together with a confidence estimate for the identified object located behind the ego vehicle; -
3 a schematic view of the vehicle of FIG2 with a confidence estimate for the identified object, the identified object being adjacent to the ego vehicle; -
4th a diagram showing a degree of confidence for a 2D shape estimation based on tracking objects over time and performing classification of the objects; -
5 a diagram for illustrating the degree of confidence for a 2D shape estimation for a plurality of objects based on a classification of the objects with a conversion into confidence distance information; -
6th a diagram for illustrating a merging of a 2D shape estimation and a 3D shape estimation for two objects based on a classification of the objects with a conversion into confidence distance information; and -
7th a diagram showing a degree of confidence for a 2D shape estimation for a plurality of objects based on a classification of the objects with a conversion to confidence distance information. -
1 shows avehicle 10 with a drivingassistance system 12 according to a first preferred embodiment.
Das Fahrzeug
Das Fahrunterstützungssystem
Der Bildsensor
Der Bereichssensor
Die Objekte
Das Sichtfeld
Das Fahrunterstützungssystem
Nachfolgend wird ein Verfahren zur Objektformerfassung diskutiert, das durch das Fahrunterstützungssystem
Das Verfahren beginnt mit Schritt
Schritt
Schritt
Die Objektklassifizierung für das identifizierte mindestens eine Objekt
Schritt
Schritt
Wie unter Bezug auf
Die 2D-Formabschätzung des identifizierten mindestens einen Objekts
Ferner wird ein 2D-Konfidenzgrad für die 2D-Formabschätzung für das identifizierte mindestens eine Objekt
Daher wird in dieser Ausführungsform der Konfidenzgrad für die 2D-Formabschätzung für eine Breite und eine Länge des identifizierten mindestens einen Objekts
Drei Beispiele für identifizierte Objekte
Schritt
Schritt
Schritt
Ferner wird ein 3D-Konfidenzgrad für die 3D-Formabschätzung für das identifizierte mindestens eine Objekt
Der Konfidenzgrad für die Länge und die Breite wird basierend auf einer Gaußkurve bestimmt, die auf Winkelrichtungen von 0° bis 180° oder +90° bis -90° abgebildet ist. Der Konfidenzgrad bezieht sich auf die Höhe, wenn die Kurve von der Winkelposition des mindestens einen Objekts
Somit wird in dieser Ausführungsform der Konfidenzgrad für die 3D-Formabschätzung für eine Breite und eine Länge des identifizierten mindestens einen Objekts
Schritt
Wie oben unter Bezug auf Schritt
Schritt
Das Verschmelzen der 2D-Formabschätzung und der 3D-Formabschätzung für das identifizierte mindestens eine Objekt
Schritt
Die Schritte des Verfahrens können allgemein in einer beliebigen geeigneten Reihenfolge ausgeführt werden. Dies beinhaltet, dass einige Schritte z.B. parallel ausgeführt werden können. Beispielsweise können die zum Ausführen der 2D-Formabschätzung des identifizierten mindestens einen Objekts
BezugszeichenlisteList of reference symbols
- 1010
- Fahrzeugvehicle
- 1212th
- FahrunterstützungssystemDriving support system
- 1414th
- Umgebungssensor, BildsensorEnvironment sensor, image sensor
- 1616
- Umgebungssensor, BereichssensorEnvironment sensor, area sensor
- 1818th
- UmgebungSurroundings
- 2020th
- BildsichtfeldField of view
- 2222nd
- BereichssichtfeldArea field of view
- 2424
- Objektobject
- 2626th
- SteuereinheitControl unit
- 2828
- KommunikationsbusCommunication bus
- 3030th
- TeilsichtfeldPartial field of view
Claims (15)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019107650.1A DE102019107650A1 (en) | 2019-03-26 | 2019-03-26 | Object shape detection based on two types of environmental sensors |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019107650.1A DE102019107650A1 (en) | 2019-03-26 | 2019-03-26 | Object shape detection based on two types of environmental sensors |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102019107650A1 true DE102019107650A1 (en) | 2020-10-01 |
Family
ID=72612208
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102019107650.1A Pending DE102019107650A1 (en) | 2019-03-26 | 2019-03-26 | Object shape detection based on two types of environmental sensors |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102019107650A1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150324658A1 (en) * | 2014-05-06 | 2015-11-12 | The Boeing Company | Sensor fusion using detector confidence boosting |
US20170220887A1 (en) * | 2016-01-29 | 2017-08-03 | Pointivo, Inc. | Systems and methods for extracting information about objects from scene information |
-
2019
- 2019-03-26 DE DE102019107650.1A patent/DE102019107650A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150324658A1 (en) * | 2014-05-06 | 2015-11-12 | The Boeing Company | Sensor fusion using detector confidence boosting |
US20170220887A1 (en) * | 2016-01-29 | 2017-08-03 | Pointivo, Inc. | Systems and methods for extracting information about objects from scene information |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102011100927B4 (en) | Object and vehicle detection and tracking using 3-D laser rangefinder | |
DE102015109270B4 (en) | Method for determining a road surface condition for a vehicle | |
DE102011086512B4 (en) | fog detection | |
EP1589484B1 (en) | Method for detecting and/or tracking objects | |
DE102011117585B4 (en) | Systems and methods for tracking objects | |
DE102019115874A1 (en) | SYSTEMS AND METHODS FOR IMPROVED DISTANCE ESTIMATION BY A MONOCAMERA USING RADAR AND MOTION DATA | |
DE112018000899T5 (en) | Joint 3D object detection and orientation estimation via multimodal fusion | |
DE112018007287T5 (en) | VEHICLE SYSTEM AND METHOD FOR DETECTING OBJECTS AND OBJECT DISTANCE | |
DE102013113570A1 (en) | Bayes network for tracking objects using search points using multiple LiDAR sensors | |
DE102013113571A1 (en) | Methods and apparatus for merging radar / camera object data and LiDAR search points | |
DE102010005290A1 (en) | Vehicle controlling method for vehicle operator i.e. driver, involves associating tracked objects based on dissimilarity measure, and utilizing associated objects in collision preparation system to control operation of vehicle | |
DE102011119767A1 (en) | APPEARANCE-BASED ASSOCIATION OF CAMERA AND DISTANCE SENSORS FOR MULTIPLE OBJECTS | |
DE102018132805A1 (en) | Procedure for improved object detection | |
DE102017218366A1 (en) | METHOD AND PEDESTRIAN DETECTION APPROACH IN A VEHICLE | |
Nuss et al. | Fusion of laser and monocular camera data in object grid maps for vehicle environment perception | |
EP1460454B1 (en) | Method for combined processing of high resolution images and video images | |
DE102018133441A1 (en) | Method and system for determining landmarks in the surroundings of a vehicle | |
DE102018121008A1 (en) | CROSS TRAFFIC RECORDING USING CAMERAS | |
Milella et al. | Visual ground segmentation by radar supervision | |
DE102023101354A1 (en) | SENSOR FUSION | |
EP3931798B1 (en) | Estimating the movement of an image position | |
DE102006039104A1 (en) | Method for ranging or detection of stationary objects in surroundings of road vehicle using graphic data, involves testing object hypothesis such as stationary object against object hypothesis such as flat road | |
DE102021121712A1 (en) | GROUP OBJECT TRACKING | |
DE102019209473A1 (en) | Method and device for the rapid detection of repetitive structures in the image of a street scene | |
DE102019107650A1 (en) | Object shape detection based on two types of environmental sensors |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified | ||
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G06K0009620000 Ipc: G06V0030190000 |