DE102019107650A1 - Object shape detection based on two types of environmental sensors - Google Patents

Object shape detection based on two types of environmental sensors Download PDF

Info

Publication number
DE102019107650A1
DE102019107650A1 DE102019107650.1A DE102019107650A DE102019107650A1 DE 102019107650 A1 DE102019107650 A1 DE 102019107650A1 DE 102019107650 A DE102019107650 A DE 102019107650A DE 102019107650 A1 DE102019107650 A1 DE 102019107650A1
Authority
DE
Germany
Prior art keywords
identified
shape
shape estimation
confidence
data point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019107650.1A
Other languages
German (de)
Inventor
Thomas Heitzmann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Valeo Schalter und Sensoren GmbH
Original Assignee
Valeo Schalter und Sensoren GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Valeo Schalter und Sensoren GmbH filed Critical Valeo Schalter und Sensoren GmbH
Priority to DE102019107650.1A priority Critical patent/DE102019107650A1/en
Publication of DE102019107650A1 publication Critical patent/DE102019107650A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/417Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • G01S13/723Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
    • G01S13/726Multiple target tracking
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/86Combinations of sonar systems with lidar systems; Combinations of sonar systems with systems not using wave reflection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/539Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die vorliegende Erfindung betrifft ein Verfahren zur Objektformerfassung basierend auf zwei Typen von Umgebungssensoren (14, 16), die in einem Fahrunterstützungssystem (12) eines Fahrzeugs (10) verwendet werden, wobei der erste Umgebungssensortyp (14, 16) ein Bildsensor (14) mit einem Bildsichtfeld (20) ist und der zweite Umgebungssensortyp ein Bereichssensor (16) mit einem Bereichssichtfeld (22) ist, das das Bildsichtfeld (20) mindestens teilweise überlappt, mit den Schritten zum Bereitstellen einer zweidimensionalen Datenpunktmatrix, die die Umgebung (18) des Fahrzeugs (10) im Bildsichtfeld (20) darstellt, durch mindestens einen Bildsensors (14), Identifizieren des mindestens einen Objekts (24) in der zweidimensionalen Datenpunktmatrix, Ausführen einer 2D-Formabschätzung des identifizierten mindestens einen Objekts (24) basierend auf der zweidimensionalen Datenpunktmatrix, Bereitstellen einer dreidimensionalen Datenpunktmatrix, die die Umgebung (18) des Fahrzeugs (10) im Bereichssichtfeld (22) darstellt, durch mindestens einen Bereichssensor (16), Identifizieren des mindestens einen Objekts (24) in der dreidimensionalen Datenpunktmatrix, Ausführen einer 3D-Formabschätzung des identifizierten mindestens einen Objekts (24) basierend auf der dreidimensionalen Datenpunktmatrix und Bestimmen der Form des identifizierten mindestens einen Objekts (24) durch Verschmelzen der 2D-Formabschätzung und der 3D-Formabschätzung für das identifizierte mindestens eine Objekt (24). Die vorliegende Erfindung betrifft auch ein Fahrunterstützungssystem (12) zur Objektformerfassung basierend auf zwei Typen von Umgebungssensoren gemäß dem obigen Verfahren.The present invention relates to a method for object shape detection based on two types of environment sensors (14, 16) which are used in a driving support system (12) of a vehicle (10), the first type of environment sensor (14, 16) having an image sensor (14) an image field of view (20) and the second type of environment sensor is an area sensor (16) with an area field of view (22) which at least partially overlaps the image field of view (20), with the steps of providing a two-dimensional data point matrix which the environment (18) of the vehicle (10) in the image field of view (20), by at least one image sensor (14), identifying the at least one object (24) in the two-dimensional data point matrix, performing a 2D shape estimation of the identified at least one object (24) based on the two-dimensional data point matrix, Providing a three-dimensional matrix of data points representing the surroundings (18) of the vehicle (10) in the area tfeld (22), by at least one area sensor (16), identifying the at least one object (24) in the three-dimensional data point matrix, executing a 3D shape estimation of the identified at least one object (24) based on the three-dimensional data point matrix and determining the shape of the identified at least one object (24) by merging the 2D shape estimation and the 3D shape estimation for the identified at least one object (24). The present invention also relates to a driving support system (12) for object shape detection based on two types of environment sensors according to the above method.

Description

Die vorliegende Erfindung betrifft ein Verfahren zur Objektformerfassung basierend auf zwei Typen von Umgebungssensoren, die in einem Fahrunterstützungssystem eines Fahrzeugs verwendet werden, wobei der erste Umgebungssensortyp ein Bildsensor mit einem Bildsichtfeld ist und der zweite Umgebungssensortyp ein Bereichssensor mit einem Bereichssichtfeld ist, das das Bildsichtfeld mindestens teilweise überlappt.The present invention relates to a method for object shape detection based on two types of environment sensors which are used in a driving support system of a vehicle, the first environment sensor type being an image sensor with an image field of view and the second environment sensor type being an area sensor with an area field of view which at least partially covers the image field of view overlaps.

Auch betrifft die vorliegende Erfindung ein Fahrunterstützungssystem zur Objektformerfassung basierend auf zwei Typen von Umgebungssensoren gemäß dem obigen Verfahren, wobei das Fahrunterstützungssystem mindestens einen Bildsensor als ersten Umgebungssensortyp zum Bereitstellen einer zweidimensionalen Datenpunktmatrix, die die Umgebung des Fahrzeugs in einem Bildsichtfeld darstellt, und mindestens einen Bereichssensor als zweiten Umgebungssensortyp zum Bereitstellen einer dreidimensionalen Datenpunktmatrix aufweist, die die Umgebung des Fahrzeugs in einem Bereichssichtfeld darstellt, wobei das Bereichssichtfeld das Bildsichtfeld mindestens teilweise überlappt.The present invention also relates to a driving support system for object shape detection based on two types of environment sensors according to the above method, the driving support system at least one image sensor as the first type of environment sensor for providing a two-dimensional data point matrix which represents the environment of the vehicle in an image field of view, and at least one area sensor as second type of environment sensor for providing a three-dimensional data point matrix which represents the environment of the vehicle in an area field of view, wherein the area field of view at least partially overlaps the image field of view.

Autonomes und halbautonomes Fahren wird in der Automobilindustrie ein immer wichtigerer Faktor. Prototypen für autonomes Fahren sind bereits entwickelt und eingesetzt worden und werden aktuell getestet, in einigen Fällen sogar unter realen Fahrbedingungen. Autonomes Fahren wird im Automobilsektor als bahnbrechende Technologie angesehen.Autonomous and semi-autonomous driving is becoming an increasingly important factor in the automotive industry. Prototypes for autonomous driving have already been developed and used and are currently being tested, in some cases even under real driving conditions. Autonomous driving is seen as a breakthrough technology in the automotive sector.

Autonomes und halbautonomes Fahren hängt von der Kenntnis der Umgebung des Fahrzeugs ab, das auch als Ego-Fahrzeug bezeichnet wird. Im Ego-Fahrzeug können verschiedene Typen von Umgebungssensoren eingesetzt werden, um seine Umgebung zu überwachen und Objekte wie Fremdfahrzeuge oder Verkehrszeichen zu erfassen. Für autonome und halbautonome Fahrsysteme ist die Berechnung präziser Trajektorien von sich bewegenden Objekten, z.B. Fremdfahrzeugen, in der Umgebung des Ego-Fahrzeugs eine unabdingbare Voraussetzung. Daher ist es wichtig, eine genaue Form von Objekten zu bestimmen, die in einer Umgebung des Fahrzeugs erfasst werden.Autonomous and semi-autonomous driving depends on knowing the surroundings of the vehicle, which is also known as the ego vehicle. Various types of environmental sensors can be used in the ego vehicle to monitor its surroundings and to detect objects such as third-party vehicles or traffic signs. For autonomous and semi-autonomous driving systems, the calculation of precise trajectories of moving objects, e.g. Third-party vehicles, an essential requirement in the vicinity of the ego vehicle. Therefore, it is important to determine an exact shape of objects that are detected in a vicinity of the vehicle.

Die zum Überwachen der Umgebung des Fahrzeugs verwendeten Umgebungssensoren können nach der Art der Information, die durch die Umgebungssensoren erhalten wird, in verschiedene Kategorien eingeteilt werden. Beispielsweise kann ein Typ von Umgebungssensoren eine dreidimensionale Datenpunktmatrix bereitstellen, die die Umgebung des Fahrzeugs in einem Bereichssichtfeld darstellt. Diese Umgebungssensoren, z.B. Umgebungssensoren auf LiDAR- oder Radarbasis, liefern genaue Abstandsinformation für Objekte in der Umgebung des Ego-Fahrzeugs und werden daher als Bereichssensoren bezeichnet. Ein anderer Typ von Umgebungssensoren, die als Bildsensoren betrachtet werden, liefern eine zweidimensionale Datenpunktmatrix, die die Umgebung des Fahrzeugs in einem Bildsichtfeld darstellt, wodurch Sensorinformation bereitgestellt wird, die zum Identifizieren von Objekten hochgradig geeignet ist.The environmental sensors used to monitor the surroundings of the vehicle can be divided into various categories based on the type of information obtained by the environmental sensors. For example, one type of environment sensor can provide a three-dimensional data point matrix that represents the environment of the vehicle in an area field of view. These environmental sensors, e.g. Environment sensors based on LiDAR or radar provide precise distance information for objects in the vicinity of the ego vehicle and are therefore referred to as area sensors. Another type of environmental sensor, considered to be image sensors, provides a two-dimensional array of data points that represent the surroundings of the vehicle in an image field of view, thereby providing sensor information that is highly suitable for identifying objects.

Zum Bereitstellen vollständig autonomer Fahrzeuge müssen verschiedene Sensortechnologien gleichzeitig verwendet werden, um konsistente Umgebungsinformation zu erzeugen. Daher wird für autonome und halbautonome Fahrsysteme Sensorinformation von beiden Umgebungssensortypen verwendet. Es erfolgt eine Verschmelzung von Sensorinformation zum Bestimmen von Positionen von Objekten in der Umgebung des Fahrzeugs. In diesem Zusammenhang ist es erforderlich, dass die Verschmelzung insbesondere in städtischen Umgebungen präzise ausgeführt wird. Unzuverlässige Information, insbesondere über den Abstand zu einem Objekt und über die Ausrichtung des Objekts, vermindern die Gesamtleistungsfähigkeit des Systems und erhöhen das Unfallrisiko.In order to provide fully autonomous vehicles, different sensor technologies must be used at the same time in order to generate consistent environmental information. Therefore, sensor information from both environmental sensor types is used for autonomous and semi-autonomous driving systems. Sensor information is merged to determine positions of objects in the vicinity of the vehicle. In this connection, it is necessary that the merging is carried out precisely, especially in urban environments. Unreliable information, especially about the distance to an object and about the orientation of the object, reduce the overall performance of the system and increase the risk of accidents.

Die gleichen Anforderungen gelten für herkömmliche Fahrerassistenzsysteme, z.B. für das Implementieren einer ACC-, Adaptive Cruise Control, Funktion, die typischerweise auf einem Frontradar und/oder einer Frontkamera als Umgebungssensoren basiert. Wenn beide Typen von Umgebungssensoren verwendet werden, erfolgt eine Verschmelzung der Sensorinformation von beiden Umgebungssensoren, um einen Abstand zu Objekten zu bestimmen, die sich vor dem Ego-Fahrzeug befinden.The same requirements apply to conventional driver assistance systems, e.g. for the implementation of an ACC, Adaptive Cruise Control, function that is typically based on a front radar and / or a front camera as environmental sensors. If both types of environment sensors are used, the sensor information from both environment sensors is merged in order to determine a distance to objects that are located in front of the ego vehicle.

Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren zur Objektformerfassung und ein Fahrunterstützungssystem zur Objektformerfassung der oben genannten Art anzugeben, die eine verbesserte Objektformerfassung ermöglichen.The invention is based on the object of specifying a method for object shape detection and a driving support system for object shape detection of the above-mentioned type, which enable an improved object shape detection.

Die Lösung dieser Aufgabe erfolgt durch die unabhängigen Ansprüche. Vorteilhafte Ausgestaltungen sind in den Unteransprüchen angegeben.This problem is solved by the independent claims. Advantageous refinements are given in the subclaims.

Insbesondere ist durch die vorliegende Erfindung ein Verfahren zur Objektformerfassung basierend auf zwei Typen von Umgebungssensoren angegeben, die in einem Fahrunterstützungssystem eines Fahrzeugs verwendet werden, wobei der erste Umgebungssensortyp ein Bildsensor mit einem Bildsichtfeld ist und der zweite Umgebungssensortyp ein Bereichssensor mit einem Bereichssichtfeld ist, das das Bildsichtfeld mindestens teilweise überlappt, mit den Schritten: Bereitstellen einer zweidimensionalen Datenpunktmatrix, die die Umgebung des Fahrzeugs im Bildsichtfeld darstellt, durch mindestens einen Bildsensor, Identifizieren mindestens eines Objekts in der zweidimensionalen Datenpunktmatrix, Ausführen einer 2D-Formabschätzung des identifizierten mindestens einen Objekts basierend auf der zweidimensionalen Datenpunktmatrix, Bereitstellen einer dreidimensionalen Datenpunktmatrix, die die Umgebung des Fahrzeugs im Bereichssichtfeld darstellt, durch mindestens einen Bereichssensor, Identifizieren mindestens eines Objekts in der dreidimensionalen Datenpunktmatrix und Ausführen einer 3D-Formabschätzung des identifizierten mindestens einen Objekts basierend auf der dreidimensionalen Datenpunktmatrix und Bestimmen der Form des identifizierten mindestens einen Objekts durch Verschmelzen der 2D-Formabschätzung mit der 3D-Formabschätzung für das identifizierte mindestens eine Objekt.In particular, the present invention specifies a method for object shape detection based on two types of environment sensors that are used in a driving support system of a vehicle, the first environment sensor type being an image sensor with an image field of view and the second environment sensor type being an area sensor with an area field of view that is the Image field of view at least partially overlapped, with the steps of: providing a two-dimensional data point matrix which represents the surroundings of the vehicle in the image field of view by at least an image sensor, identifying at least one object in the two-dimensional data point matrix, performing a 2D shape estimation of the identified at least one object based on the two-dimensional data point matrix, providing a three-dimensional data point matrix, which represents the surroundings of the vehicle in the area field of view, by at least one area sensor, identifying at least one Object in the three-dimensional data point matrix and performing a 3D shape estimation of the identified at least one object based on the three-dimensional data point matrix and determining the shape of the identified at least one object by merging the 2D shape estimation with the 3D shape estimation for the identified at least one object.

Durch die vorliegende Erfindung ist auch ein Fahrunterstützungssystem zur Objektformerfassung basierend auf zwei Typen von Umgebungssensoren gemäß dem obigen Verfahren angegeben, wobei das Fahrunterstützungssystem mindestens einen Bildsensor als ersten Umgebungssensortyp zum Bereitstellen einer zweidimensionalen Datenpunktmatrix, die die Umgebung des Fahrzeugs in einem Bildsichtfeld darstellt, und mindestens einen Bereichssensor als zweiten Umgebungssensortyp zum Bereitstellen einer dreidimensionalen Datenpunktmatrix aufweist, die die Umgebung des Fahrzeugs in einem Bereichssichtfeld darstellt, wobei das Bereichssichtfeld das Bildsichtfeld mindestens teilweise überlappt.The present invention also specifies a driving support system for object shape detection based on two types of environment sensors according to the above method, the driving support system at least one image sensor as the first environment sensor type for providing a two-dimensional data point matrix that represents the environment of the vehicle in an image field of view, and at least one Area sensor as a second type of environment sensor for providing a three-dimensional data point matrix which represents the environment of the vehicle in an area field of view, the area field of view at least partially overlapping the image field of view.

Grundidee der Erfindung ist es, die Objekterfassung und -verarbeitung in einem Fahrunterstützungssystem zu verbessern, indem einfache Mittel zum Ausführen einer Verschmelzung durch individuelles Ausführen einer 2D/3D-Formabschätzung des identifizierten mindestens einen Objekts bereitgestellt werden. Dies wird erreicht, indem die zweidimensionale Datenpunktmatrix sowie die dreidimensionale Datenpunktmatrix verarbeitet werden und die Information bezüglich der zweidimensionalen Datenpunktmatrix und der dreidimensionalen Datenpunktmatrix, die die Umgebung des Fahrzeuges im Bildsichtfeld darstellt, verschmolzen werden. Auf diese Weise kann eine zuverlässige Formerfassung ausgeführt werden. Die Form des mindestens einen identifizierten Objekts kann für verschiedene Fahrunterstützungsfunktionen weiterverarbeitet werden.The basic idea of the invention is to improve the object detection and processing in a driving support system by providing simple means for carrying out a merging by individually carrying out a 2D / 3D shape estimation of the identified at least one object. This is achieved in that the two-dimensional data point matrix and the three-dimensional data point matrix are processed and the information relating to the two-dimensional data point matrix and the three-dimensional data point matrix, which represents the surroundings of the vehicle in the image field of view, are merged. In this way, reliable shape detection can be carried out. The shape of the at least one identified object can be processed further for various driving support functions.

Das Fahrzeug, d.h. das Ego-Fahrzeug, kann erfindungsgemäß ein beliebiger Fahrzeugtyp sein, z.B. ein PKW oder ein LKW. Das Fahrzeug kann durch einen menschlichen Fahrer manuell gefahren werden. Alternativ unterstützt das Fahrzeug halbautonomes oder autonomes Fahren. Daher kann das Fahrunterstützungssystem ein Fahrunterstützungssystem zum autonomen Bewegen des Fahrzeugs sein. Darüber hinaus sind auf dem Fachgebiet andersartige Fahrunterstützungssysteme bekannt. Es ist möglich, dass das Fahrzeug Insassen, einschließlich eines Fahrers, transportiert oder nur für den Warentransport genutzt wird.The vehicle, i.e. the ego vehicle can be any type of vehicle according to the invention, e.g. a car or a truck. The vehicle can be driven manually by a human driver. Alternatively, the vehicle supports semi-autonomous or autonomous driving. Therefore, the driving support system can be a driving support system for autonomously moving the vehicle. In addition, other types of driving assistance systems are known in the art. It is possible for the vehicle to be used to transport occupants, including a driver, or to be used only for the transport of goods.

Objekte in der Umgebung des Ego-Fahrzeugs können beliebige Objekte sein. Sie können statische Objekte wie Häuser, Verkehrszeichen oder geparkte Autos sein. Darüber hinaus können sich die Objekte bewegen, wie etwa verschiedenartige Fremdfahrzeuge oder Fußgänger.Objects in the environment of the ego vehicle can be any objects. They can be static objects like houses, road signs, or parked cars. In addition, the objects can move, such as different types of foreign vehicles or pedestrians.

Die Objektformerfassung bezieht sich insbesondere auf das Erfassen einer Darstellung des Objekts relativ zu einer Bodenebene, d.h. auf eine Breite und eine Länge des entsprechenden Objekts. Höheninformation der Objekte ist weniger wichtig, da das Fahrzeug auf einer Bodenebene fährt und nur in dieser Ebene mit dem Objekt wechselwirkt.Object shape detection relates in particular to the detection of a representation of the object relative to a ground plane, i. to a width and a length of the corresponding object. Height information of the objects is less important, since the vehicle drives on a ground level and only interacts with the object in this level.

Der Bildsensor ist eine Einrichtung, die Information erfasst und übermittelt, die dazu verwendet wird, eine zweidimensionale Datenpunktmatrix bereitzustellen, die wiederum in einer Ebene dargestellt werden kann. Der Bildsensor wandelt eine variable Abschwächung von Lichtwellen oder elektromagnetischen Wellen in Signale um, vorzugsweise in elektrische Signale. Lichtwellen oder elektromagnetische Wellen können unterschiedliche Wellenlängen haben. In Abhängigkeit von der Wellenlänge können verschiedene Typen von Bildsensoren verwendet werden. Beispielsweise kann für das sichtbare Spektrum des Lichts eine Kamera verwendet werden. Alternativ können Bildsensoren für elektromagnetische Wellen im Infrarotbereich, z.B. bei Wellenlängen von 1000 nm, oder im Ultraviolettbereich, z.B. bei Wellenlängen von 200 nm, verwendet werden. In Abhängigkeit vom Bildsensor kann die zweidimensionale Datenpunktmatrix in kartesischen Koordinaten oder in Polarkoordinaten bereitgestellt werden. Die Datenpunkte selbst können mit mehreren Informationselementen annotiert sein. Beispielsweise liefert eine Farbkamera ein pixelbasiertes Bild als zweidimensionale Daten, wobei die einzelnen Pixel Information enthalten, z.B. in den drei Farbkanälen RGB. Alternativ können die einzelnen Pixel Information über die Signalintensität und/oder einen Helligkeitswert enthalten. Ferner können die durch den Bildsensor aufgenommenen Bilder einzelne Standbilder oder Bildfolgen sein, die Videos oder Filme bilden. Beispielsweise kann ein Bildsensor ein optischer Sensor, eine Kamera, eine thermische Abbildungseinrichtung oder ein Nachtsichtsensor sein.The image sensor is a device that captures and transmits information that is used to provide a two-dimensional data point matrix, which in turn can be represented in a plane. The image sensor converts a variable attenuation of light waves or electromagnetic waves into signals, preferably into electrical signals. Light waves or electromagnetic waves can have different wavelengths. Various types of image sensors can be used depending on the wavelength. For example, a camera can be used for the visible spectrum of the light. Alternatively, image sensors for electromagnetic waves in the infrared range, e.g. at wavelengths of 1000 nm, or in the ultraviolet range, e.g. at wavelengths of 200 nm. Depending on the image sensor, the two-dimensional data point matrix can be provided in Cartesian coordinates or in polar coordinates. The data points themselves can be annotated with several information elements. For example, a color camera delivers a pixel-based image as two-dimensional data, the individual pixels containing information, e.g. in the three color channels RGB. Alternatively, the individual pixels can contain information about the signal intensity and / or a brightness value. Furthermore, the images recorded by the image sensor can be individual still images or image sequences that form videos or films. For example, an image sensor can be an optical sensor, a camera, a thermal imaging device or a night vision sensor.

Der zweite Umgebungssensortyp ist ein Bereichssensor mit einem Bereichssichtfeld, das das Bildsichtfeld mindestens teilweise überlappt. Der Bereichssensor ist eine Einrichtung, die die dreidimensionale Struktur der Umgebung aus dem Blickwinkel des Umgebungssensors erfasst und üblicherweise die Tiefe und/oder den Abstand zu nähesten Oberflächen misst. Ein Bereichssensor kann ein Sensor auf LiDAR-Basis, ein Sensor auf Radarbasis, ein Sensor auf Infrarotbasis oder ein Sensor auf Ultraschallbasis sein. Radarsensoren verwenden Funkwellen zum Bestimmen der Entfernung, des Winkels und/oder der Geschwindigkeit von Objekten. Sensoren auf Ultraschallbasis arbeiten nach dem Prinzip reflektierter Schallwellen. Sensoren auf LiDAR-Basis messen die Entfernung zu einem Objekt durch Bestrahlen des Objekts mit gepulstem Laserlicht und Messen von Reflexionen der emittierten Pulse. Unterschiede in den Laserrücklaufzeiten, den Wellenlängen und/oder der Intensität können dann bestimmt und verwendet werden, um die dreidimensionale Datenpunktmatrix bereitzustellen, die mindestens einen Teil der Umgebung des Fahrzeugs abdeckt. Sensoren auf Infrarotbasis arbeiten ebenfalls nach dem Prinzip reflektierter Lichtwellen. Sensoren auf Infrarotbasis sind jedoch weniger zuverlässig als die anderen Umgebungssensoren, da ihre Messwerte bei variierenden Lichtbedingungen tendenziell schwanken. Die Messungen der Abstände zu den Objekten können an einzelnen Punkten der Umgebung des Ego-Fahrzeugs über Abtastebenen hinweg ausgeführt werden, oder die Messungen können an jedem Punkt der Umgebung des Ego-Fahrzeugs ein vollständiges Bild mit Tiefen- und/oder Entfernungsmesswerten liefern. Die durch den Bereichssensor bestimmten Daten bilden eine dreidimensionale Datenpunktmatrix, die in sphärischen Koordinaten bereitgestellt werden kann und den Abstand zu einem Objekt und die Position des Objekts relativ zur Sensorposition enthalten, die durch den Polar- und Azimutwinkel (Theta, Phi) bestimmt ist. Alternativ können die Daten in kartesischen Koordinaten bestimmt oder in diese umgewandelt werden, wodurch die Position des Objekts relativ zu den Koordinatenachsen X, Y und Z und zum Ursprung des Koordinatensystems identifiziert wird.The second type of environment sensor is an area sensor having an area field of view that at least partially overlaps the image field of view. The area sensor is a device that captures the three-dimensional structure of the environment from the perspective of the environment sensor and usually measures the depth and / or the distance to the closest surfaces. An area sensor can be a LiDAR-based sensor, a radar-based sensor, an infrared-based sensor, or an ultrasonic-based sensor. Radar sensors use radio waves to determine the distance, angle, and / or speed of objects. Ultrasonic sensors work on the principle of reflected sound waves. LiDAR-based sensors measure the distance to an object by irradiating the object with pulsed laser light and measuring reflections of the emitted pulses. Differences in the laser return times, the wavelengths and / or the intensity can then be determined and used to provide the three-dimensional data point matrix that covers at least a part of the surroundings of the vehicle. Infrared sensors also work on the principle of reflected light waves. However, infrared-based sensors are less reliable than the other environmental sensors because their readings tend to fluctuate with varying lighting conditions. The measurements of the distances to the objects can be carried out at individual points in the environment of the ego vehicle across scanning planes, or the measurements can provide a complete image with depth and / or distance measurements at each point in the environment of the ego vehicle. The data determined by the area sensor form a three-dimensional data point matrix that can be provided in spherical coordinates and contain the distance to an object and the position of the object relative to the sensor position, which is determined by the polar and azimuth angles (theta, phi). Alternatively, the data can be determined or converted to Cartesian coordinates, thereby identifying the position of the object relative to the X, Y and Z coordinate axes and the origin of the coordinate system.

Das Bildsichtfeld ist ein Sektor oder allgemein ein Teil der Umgebung des Fahrzeugs, von dem der jeweilige Umgebungssensor Information erfasst. Das Bildsichtfeld eines Sensors kann durch das Design des Sensors beeinflusst werden. Beispielsweise sammelt eine Kamera Information über eine Linse, das ankommende Lichtwellen fokussiert. Die Krümmung der Linse beeinflusst das Bildsichtfeld der Kamera. Das Bildsichtfeld einer Kamera mit einer Fischaugenlinse ist weiter als das Bildsichtfeld einer Kamera mit einer herkömmlichen Linse. Das Bildsichtfeld kann auch durch die Größe oder die Abmessungen des Detektors beeinflusst werden, der verwendet wird, um die Abschwächung von Lichtwellen oder elektromagnetischen Wellen in elektrische Signale umzuwandeln. Es ist auch möglich, dass ein Sensor ein Bildsichtfeld hat, das 360° der Umgebung des Fahrzeugs abdeckt. Dies kann zum Beispiel durch einen rotierenden Sensor oder durch Verwendung mehrerer miteinander verbundener Umgebungssensoren erreicht werden, z.B. durch einen Satz von vier Weitwinkel- oder gar Fischaugenkameras, die sich an vier Seiten des Fahrzeugs befinden. Die Überlappung der beiden Sichtfelder ermöglicht es, Information bezüglich eines Objekts an einem bestimmten Ort mithilfe beider Umgebungssensoren bereitzustellen.The image field of view is a sector or generally a part of the surroundings of the vehicle from which the respective surroundings sensor detects information. The field of view of a sensor can be influenced by the design of the sensor. For example, a camera collects information through a lens that focuses incoming light waves. The curvature of the lens affects the camera's field of view. The field of view of a camera with a fisheye lens is wider than the field of view of a camera with a conventional lens. The image field of view can also be influenced by the size or dimensions of the detector that is used to convert the attenuation of light waves or electromagnetic waves into electrical signals. It is also possible for a sensor to have an image field of view that covers 360 ° of the surroundings of the vehicle. This can be achieved for example by a rotating sensor or by using several interconnected environmental sensors, e.g. through a set of four wide-angle or even fisheye cameras located on four sides of the vehicle. The overlapping of the two fields of view makes it possible to provide information relating to an object at a specific location using both environmental sensors.

Das Identifizieren mindestens eines Objekts in der zweidimensionalen Datenpunktmatrix bezieht sich auf das Erfassen eines bestimmten Objekts in der zweidimensionalen Datenpunktmatrix. Auf dem Fachgebiet sind verschiedene Techniken zum Identifizieren der Objekte bekannt, wie beispielsweis Bildverarbeitung.The identification of at least one object in the two-dimensional data point matrix relates to the detection of a specific object in the two-dimensional data point matrix. Various techniques are known in the art for identifying the objects, such as image processing.

Das Identifizieren mindestens eines Objekts in der dreidimensionalen Datenpunktmatrix bezieht sich ebenfalls auf das Erfassen eines bestimmten Objekts in der dreidimensionalen Datenpunktmatrix. Das Erfassen des Objekts basiert beispielsweise auf der Erfassung einer Gruppe von Datenpunkten, die nahe beieinander liegen.The identification of at least one object in the three-dimensional data point matrix also relates to the detection of a specific object in the three-dimensional data point matrix. The detection of the object is based, for example, on the detection of a group of data points that are close to one another.

Verschiedene Ansätze zum Ausführen einer 2D-Formabschätzung des identifizierten mindestens einen Objekts basierend auf der zweidimensionalen Datenpunktmatrix und zum Ausführen einer 3D-Formabschätzung des identifizierten mindestens einen Objekts basierend auf der dreidimensionalen Datenpunktmatrix werden nachfolgend diskutiert. Various approaches for performing a 2D shape estimation of the identified at least one object based on the two-dimensional data point matrix and for performing a 3D shape estimation of the identified at least one object based on the three-dimensional data point matrix are discussed below.

Auf dem Fachgebiet sind bereits verschiedene Verfahren zum Verschmelzen von Information bekannt. Einige Details bezüglich des Verschmelzens der 2D-Formabschätzung und der 3D-Formabschätzung für das identifizierte mindestens eine Objekt sind nachstehend angegeben.Various methods of merging information are known in the art. Some details regarding the merging of the 2D shape estimate and the 3D shape estimate for the identified at least one object are given below.

Die Schritte des Verfahrens können allgemein in einer beliebigen geeigneten Reihenfolge ausgeführt werden. Dies beinhaltet, dass einige Schritte z.B. parallel ausgeführt werden können. Beispielsweise können die zum Ausführen der 2D-Formabschätzung des identifizierten mindestens einen Objekts erforderlichen Schritte parallel zu den Schritten ausgeführt werden, die zum Ausführen der 3D-Formabschätzung des identifizierten mindestens einen Objekts erforderlich sind.The steps of the method can generally be carried out in any suitable order. This implies that some steps e.g. can be run in parallel. For example, the steps required to carry out the 2D shape estimation of the identified at least one object can be carried out in parallel with the steps which are necessary to carry out the 3D shape estimation of the identified at least one object.

Weiterhin kann das Verfahren allgemein mit mehreren Umgebungssensoren des gleichen Typs ausgeführt werden. Daher wird die Sensorinformation dieser Sensoren einzeln verarbeitet, um jeweilige Formabschätzungen auszuführen. Darauf basierend kann das Bestimmen der Form des identifizierten mindestens einen Objekts durch Verschmelzen mehrerer 2D-Formabschätzungen und/oder mehrerer 3D-Formabschätzungen für das identifizierte mindestens eine Objekt ausgeführt werden.Furthermore, the method can generally be carried out with a plurality of environmental sensors of the same type. Therefore, the sensor information of these sensors is processed one by one to carry out respective shape estimates. Based on this, the shape of the identified at least one object can be determined by merging several 2D shape estimates and / or multiple 3D shape estimations are performed for the identified at least one object.

Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Ausführen einer 2D-Formabschätzung des identifizierten mindestens einen Objekts das Bestimmen eines 2D-Konfidenzgrades für die 2D-Formabschätzung für das identifizierte mindestens eine Objekt auf, weist der Schritt zum Ausführen einer 3D-Formabschätzung des identifizierten mindestens einen Objekts das Bestimmen eines 3D-Konfidenzgrades für die 3D-Formabschätzung für das identifizierte mindestens eine Objekt auf und weist der Schritt zum Bestimmen der Form des identifizierten mindestens einen Objekts durch Verschmelzen der 2D-Formabschätzung und der 3D-Formabschätzung für das identifizierte mindestens eine Objekt das Verschmelzen der 2D-Formabschätzung und der 3D-Formabschätzung für das identifizierte mindestens eine Objekt unter zusätzlicher Berücksichtigung des 2D-Konfidenzgrades und des 3D-Konfidenzgrades der 2D-Formabschätzung und der 3D-Formabschätzung für das identifizierte mindestens eine Objekt auf. Der Konfidenzgrad liefert eine Wahrscheinlichkeit dafür, dass die jeweilige 2D/3D-Formabschätzung korrekt ist. Daher liegt der Konfidenzgrad innerhalb des Intervalls [0; 1]. Normalerweise kann der Konfidenzgrad als Konfidenzgrad mit einer Gaußverteilung betrachtet werden. Basierend auf dem Konfidenzgrad kann das Verschmelzen der 2D-Formabschätzung und der 3D-Formabschätzung vereinfacht werden. Je höher der jeweilige Konfidenzgrad ist, desto besser ist die 2D/3D-Formabschätzung. Beim Bestimmen der Form des identifizierten mindestens einen Objekts haben daher Formabschätzungen mit einem höheren Konfidenzgrad einen stärkeren Einfluss auf die Bestimmung der Form als Formabschätzungen mit einem niedrigeren Konfidenzgrad.According to a modified embodiment of the invention, the step of performing a 2D shape estimation of the identified at least one object comprises determining a 2D degree of confidence for the 2D shape estimation for the identified at least one object, the step of executing a 3D shape estimation of the identified object at least one object has the determination of a 3D confidence level for the 3D shape estimation for the identified at least one object and comprises the step of determining the shape of the identified at least one object by merging the 2D shape estimation and the 3D shape estimation for the identified at least one Object, the merging of the 2D shape estimation and the 3D shape estimation for the identified at least one object with additional consideration of the 2D degree of confidence and the 3D degree of confidence of the 2D shape estimation and the 3D shape estimation for the identified at least one object. The degree of confidence provides a probability that the respective 2D / 3D shape estimate is correct. Therefore, the degree of confidence lies within the interval [0; 1]. Usually, the confidence level can be viewed as a confidence level with a Gaussian distribution. Based on the degree of confidence, the merging of the 2D shape estimation and the 3D shape estimation can be simplified. The higher the respective degree of confidence, the better the 2D / 3D shape estimation. When determining the shape of the identified at least one object, shape estimates with a higher degree of confidence therefore have a stronger influence on the determination of the shape than shape estimates with a lower degree of confidence.

Gemäß einer modifizierten Ausführungsform der Erfindung weist das Verfahren einen zusätzlichen Schritt zum Bestimmen eines Konfidenzgrades für die Form des identifizierten mindestens einen Objekts auf, insbesondere durch Verschmelzen der 2D-Formabschätzung und der 3D-Formabschätzung für das identifizierte mindestens eine Objekt mit dem 2D-Konfidenzgrad und dem 3D-Konfidenzgrad der 2D-Formabschätzung und der 3D-Formabschätzung für das identifizierte mindestens eine Objekt. Dadurch kann auch die Form des identifizierten mindestens einen Objekts mit einem Konfidenzgrad verknüpft werden, der verwendet werden kann, wenn die Form des identifizierten mindestens einen Objekts weiterverarbeitet wird, insbesondere in einem Fahrunterstützungssystem.According to a modified embodiment of the invention, the method has an additional step of determining a degree of confidence for the shape of the identified at least one object, in particular by merging the 2D shape estimation and the 3D shape estimation for the identified at least one object with the 2D degree of confidence and the 3D degree of confidence of the 2D shape estimate and the 3D shape estimate for the identified at least one object. As a result, the shape of the identified at least one object can also be linked to a degree of confidence that can be used when the shape of the identified at least one object is further processed, in particular in a driving assistance system.

Gemäß einer modifizierten Ausführungsform der Erfindung weist das Verfahren einen zusätzlichen Schritt zum Verfolgen des identifizierten mindestens einen Objekts zwischen verschiedenen Identifizierungen des mindestens einen Objekts in der zweidimensionalen Datenpunktmatrix und/oder in der dreidimensionalen Datenpunktmatrix auf, und weist der Schritt zum Ausführen der 2D-Formabschätzung und/oder der 3D-Formabschätzung des identifizierten mindestens einen Objekts das Ausführen der 2D-Formabschätzung und/oder der 3D-Formabschätzung unter Berücksichtigung der verfolgten Identifizierungen des mindestens einen Objekts auf. Normalerweise bewegen sich Objekte im Laufe der Zeit relativ zum Fahrzeug, entweder aufgrund einer Bewegung des Fahrzeugs oder aufgrund einer Bewegung des Objekts. Daher können die Objekte durch den Bildsensor verschiedenartig gesehen werden und/oder verschiedenen Umgebungsbedingungen ausgesetzt sein. Je mehr Information in Bezug auf das identifizierte mindestens eine Objekt verfügbar ist, desto besser ist die 2D-Formabschätzung und/oder die 3D-Formabschätzung. Infolge der Bewegungen des Ego-Fahrzeugs und/oder der Objekte ermöglicht das Verfolgen des identifizierten mindestens einen Objekts eine Zuordnung verschiedener 2D-Formabschätzungen und/oder 3D-Formabschätzungen über die Zeit zu den gleichen Objekten.According to a modified embodiment of the invention, the method has an additional step of tracking the identified at least one object between different identifications of the at least one object in the two-dimensional data point matrix and / or in the three-dimensional data point matrix, and has the step of performing the 2D shape estimation and / or the 3D shape estimation of the identified at least one object executes the 2D shape estimation and / or the 3D shape estimation taking into account the tracked identifications of the at least one object. Typically, objects move relative to the vehicle over time, either due to movement of the vehicle or due to movement of the object. Therefore, the objects can be seen differently by the image sensor and / or be exposed to different environmental conditions. The more information is available in relation to the identified at least one object, the better the 2D shape estimation and / or the 3D shape estimation. As a result of the movements of the ego vehicle and / or the objects, tracking the identified at least one object enables different 2D shape estimates and / or 3D shape estimates over time to be assigned to the same objects.

Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Bestimmen eines 2D-Konfidenzgrades für die 2D-Formabschätzung und/oder zum Bestimmen eines 3D-Konfidenzgrades für die 3D-Formabschätzung für das identifizierte mindestens eine Objekt das Bestimmen eines 2D-Konfidenzgrades und/oder eines 3D-Konfidenzgrades für eine Breite und eine Länge des identifizierten mindestens einen Objekts auf. Der 2D/3D-Konfidenzgrad kann für die Breite und die Länge unabhängig bestimmt werden. In anderen Fällen kann jedoch ein gemeinsamer Konfidenzgrad für die Breite und die Länge bestimmt werden. Die Breite und die Länge sind äußerst wichtig für das Bestimmen der Form des identifizierten mindestens einen Objekts. Die Breite und die Länge sind vorzugsweise in Bezug auf das Ego-Fahrzeug definiert, d.h. gemäß der Längen- und der Breitenrichtung des Ego-Fahrzeugs, obwohl auch andere Definitionen verwendet werden können. Wesentlich ist lediglich ein Unterschied zwischen verschiedenen Seiten des identifizierten mindestens einen Objekts, z.B. eine Vorderseite und eine laterale Seite. Die Länge und die Breite können angepasst werden, falls das identifizierte mindestens eine Objekt sich dreht und dem Ego-Fahrzeug während seiner Beobachtungsdauer verschiedene Seiten zuwendet, z.B. während es im Bildsichtfeld mindestens eines der Umgebungssensoren erscheint.According to a modified embodiment of the invention, the step of determining a 2D degree of confidence for the 2D shape estimation and / or of determining a 3D degree of confidence for the 3D shape estimation for the identified at least one object comprises determining a 2D degree of confidence and / or a 3D degree of confidence for a latitude and a longitude of the identified at least one object. The 2D / 3D degree of confidence can be determined independently for latitude and longitude. In other cases, however, a common confidence level can be determined for latitude and longitude. The latitude and longitude are extremely important in determining the shape of the identified at least one object. The width and length are preferably defined in relation to the ego vehicle, i.e. according to the longitudinal and latitudinal directions of the ego vehicle, although other definitions can be used. The only important thing is a difference between different sides of the identified at least one object, e.g. a front and a lateral side. The length and the width can be adjusted if the identified at least one object rotates and faces the ego vehicle different sides during its observation period, e.g. while at least one of the environmental sensors appears in the image field of view.

Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Bestimmen eines 3D-Konfidenzgrades für eine Breite und eine Länge des identifizierten mindestens einen Objekts das Bestimmen des 3D-Konfidenzgrades für die Breite und die Länge des identifizierten mindestens einen Objekts basierend auf einer Position des identifizierten mindestens einen Objekts in Bezug auf das Fahrzeug auf, insbesondere in Bezug auf eine Position des Bereichssensors. Die Position weist vorzugsweise eine Winkelposition des jeweiligen Objekts relativ zum Fahrzeug auf. In Abhängigkeit von der Winkelposition wenden Objekte wie beispielsweise Fremdfahrzeuge oder andere rechteckige Objekte dem Fahrzeug ihre Vorder-/Rückseite oder ihre lateralen Seiten unterschiedlich zu. Beispielsweise kann für ein Fremdfahrzeug vor dem Ego-Fahrzeug keine Längeninformation bestimmt werden, da die lateralen Seiten dem Ego-Fahrzeug und dem Raumtypsensor nicht zugewandt sind. Daher ist der Konfidenzgrad für die Breite des Fremdfahrzeugs sehr hoch, während der Konfidenzgrad für die Länge ziemlich niedrig ist. Die gleichen Prinzipien gelten für ein Fremdfahrzeug neben dem Ego-Fahrzeug, bei dem keine Breiteninformation bestimmt werden kann, da die Vorder-/Rückseite des Fremdfahrzeugs nicht dem Ego-Fahrzeug und dem Bereichssensor zugewandt sind. Daher ist der Konfidenzgrad für die Länge des Fremdfahrzeugs sehr hoch, während der Konfidenzgrad für die Breite ziemlich niedrig ist. Die Position kann ferner einen Abstand des jeweiligen Objekts relativ zum Fahrzeug aufweisen. Je größer der Abstand ist, desto geringer ist die Anzahl an Datenpunkten, die das jeweilige Objekt abdecken. Dies führt zu niedrigeren Konfidenzgraden für Objekte, die weiter vom Ego-Fahrzeug entfernt sind.According to a modified embodiment of the invention, the step of determining a 3D degree of confidence for a latitude and a length of the identified at least one object comprises determining the 3D degree of confidence for the latitude and longitude the length of the identified at least one object based on a position of the identified at least one object in relation to the vehicle, in particular in relation to a position of the area sensor. The position preferably has an angular position of the respective object relative to the vehicle. Depending on the angular position, objects such as third-party vehicles or other rectangular objects face the vehicle with their front / rear or their lateral sides differently. For example, no length information can be determined for an external vehicle in front of the ego vehicle, since the lateral sides do not face the ego vehicle and the room type sensor. Therefore, the confidence level for the width of the other vehicle is very high, while the confidence level for the length is quite low. The same principles apply to an external vehicle in addition to the ego vehicle, in which no width information can be determined because the front / rear of the external vehicle do not face the ego vehicle and the area sensor. Therefore, the degree of confidence for the length of the other vehicle is very high, while the degree of confidence for the width is quite low. The position can also have a distance of the respective object relative to the vehicle. The greater the distance, the lower the number of data points that cover the respective object. This leads to lower levels of confidence for objects that are further away from the ego vehicle.

Gemäß einer modifizierten Ausführungsform der Erfindung weist das Verfahren einen zusätzlichen Schritt zum Umwandeln des 2D-Konfidenzgrades für die 2D-Formabschätzung des identifizierten mindestens einen Objekts, des 3D-Konfidenzgrades für die 3D-Formabschätzung des identifizierten mindestens einen Objekts und/oder des Konfidenzgrades für die Form des identifizierten mindestens einen Objekts in Konfidenzabstandsinformation auf, insbesondere basierend auf einer Nachschlagetabelle. Der Konfidenzgrad ist eine Wahrscheinlichkeit dafür, dass die bestimmte Form des jeweiligen Objekts korrekt ist. Daher ist der Konfidenzgrad ein Wert innerhalb des Intervalls [0; 1]. In einigen Fällen kann es jedoch für eine leichtere Weiterverarbeitung der Form des identifizierten mindestens einen Objekts bevorzugt sein, die Konfidenzabstandsinformation bereitzustellen, die ein Intervall definiert, das die korrekte Form mit einer vorgegebenen Wahrscheinlichkeit enthält. In diesem Zusammenhang wird die Form als eine Form beispielsweise mit einer Gaußverteilung betrachtet, und das Intervall basiert auf einer Standardabweichung σ von einem Erwartungswert µ. Daher kann die Konfidenzabstandsinformation in einem Intervall von z.B. [5 m; 0,1 m] liegen. Die Nachschlagetabelle ermöglicht einen einfachen und schnellen Zugriff auf Konfidenzabstandsinformation basierend auf dem Konfidenzgrad. Die Umwandlung kann durch einen erfahrenen Benutzer definiert werden. Darüber hinaus kann die Umwandlung z.B. von einem Kontext abhängen.According to a modified embodiment of the invention, the method has an additional step for converting the 2D degree of confidence for the 2D shape estimation of the identified at least one object, the 3D degree of confidence for the 3D shape estimation of the identified at least one object and / or the degree of confidence for the Form of the identified at least one object in confidence distance information, in particular based on a look-up table. The degree of confidence is a probability that the particular shape of the respective object is correct. Therefore the degree of confidence is a value within the interval [0; 1]. In some cases, however, for easier further processing of the shape of the identified at least one object, it may be preferred to provide the confidence distance information that defines an interval that contains the correct shape with a predetermined probability. In this connection, the shape is regarded as a shape having a Gaussian distribution, for example, and the interval is based on a standard deviation σ from an expected value µ. Therefore, the confidence distance information can be in an interval of e.g. [5 m; 0.1 m]. The look-up table enables easy and quick access to confidence distance information based on the confidence level. The conversion can be defined by an experienced user. In addition, the conversion can e.g. depend on a context.

Gemäß einer modifizierten Ausführungsform der Erfindung weist das Verfahren einen zusätzlichen Schritt zum Ausführen einer Objektklassifizierung für das identifizierte mindestens eine Objekt in der zweidimensionalen Datenpunktmatrix auf, und weist der Schritt zum Ausführen einer 2D-Formabschätzung des identifizierten mindestens einen Objekts das Ausführen der 2D-Formabschätzung des identifizierten mindestens einen Objekts unter zusätzlicher Berücksichtigung der Klassifizierung des identifizierten mindestens einen Objekts auf. Da die Information von dem mindestens einen Bildsensor keine Abstandsinformation enthält, ist die Objektklassifizierung ein geeignetes Mittel zum Bestimmen einer 2D-Formabschätzung basierend auf der zweidimensionalen Datenpunktmatrix, die durch den mindestens einen Bildsensor bereitgestellt wird. Sensorinformation von Bildsensoren ist in der Regel zur Objektklassifizierung hochgradig geeignet. Basierend auf der Klassifizierung des identifizierten mindestens einen Objekts kann seine Form z.B. basierend auf Forminformation bestimmt werden, die Objekten aus der jeweiligen Klasse zugeordnet ist.According to a modified embodiment of the invention, the method has an additional step for executing an object classification for the identified at least one object in the two-dimensional data point matrix, and the step for executing a 2D shape estimation of the identified at least one object comprises executing the 2D shape estimation of the identified at least one object with additional consideration of the classification of the identified at least one object. Since the information from the at least one image sensor does not contain any distance information, the object classification is a suitable means for determining a 2D shape estimate based on the two-dimensional data point matrix that is provided by the at least one image sensor. Sensor information from image sensors is generally highly suitable for object classification. Based on the classification of the identified at least one object, its shape can e.g. can be determined based on shape information which is assigned to objects from the respective class.

Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Ausführen einer Objektklassifizierung für das identifizierte mindestens eine Objekt das Definieren eines Satzes von Objektklassen und das Zuordnen einer der Klassen zu dem identifizierten mindestens einen Objekt auf, wobei jeder Objektklasse eine vordefinierte Forminformation zugewiesen ist, und weist der Schritt zum Ausführen einer 2D-Formabschätzung des identifizierten mindestens einen Objekts das Ausführen der 2D-Formabschätzung des identifizierten mindestens einen Objekts basierend auf der vordefinierten Forminformation auf. Daher ist jeder Klasse von Objekten typische Forminformation zugewiesen. Diese typische Forminformation kann statische Information sein, oder sie kann dynamisch modifiziert werden, z.B. basierend auf einem Ort des identifizierten mindestens einen Objekts oder dergleichen. Beispielsweise kann eine durchschnittliche Länge von Autos in verschiedenen Ländern unterschiedlich sein. Die typische Forminformation kann z.B. basierend auf statistischen Daten bestimmt werden. Eine einfache Implementierung kann basierend auf einer Nachschlagetabelle mit einem Satz von Klassen und entsprechender Forminformation realisiert werden.According to a modified embodiment of the invention, the step of performing an object classification for the identified at least one object comprises defining a set of object classes and assigning one of the classes to the identified at least one object, each object class being assigned predefined shape information, and has the step of performing a 2D shape estimation of the identified at least one object includes performing the 2D shape estimation of the identified at least one object based on the predefined shape information. Therefore, typical shape information is assigned to each class of objects. This typical shape information can be static information or it can be modified dynamically, e.g. based on a location of the identified at least one object or the like. For example, an average length of cars may be different in different countries. The typical shape information can e.g. can be determined based on statistical data. A simple implementation can be realized based on a look-up table with a set of classes and corresponding shape information.

Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Ausführen einer Objektklassifizierung für das identifizierte mindestens eine Objekt das Bestimmen einer Wahrscheinlichkeit dafür, dass das identifizierte mindestens eine Objekts einer Klasse zugehörig ist, basierend auf mehreren Klassifizierungen des identifizierten mindestens einen Objekts auf. Wenn also das gleiche Objekt über einen längeren Zeitraum beobachtet werden kann und das Verfahren kontinuierlich ausgeführt wird, führt dies zu mehreren Identifizierungen identischer Objekte in der Umgebung des Fahrzeugs. Wenn sich jedoch das identifizierte mindestens eine Objekt oder das Ego-Fahrzeug bewegt, kann sich die Sichtbarkeit des jeweiligen Objekts ändern. Dies bezieht sich auf unterschiedliche Abstände des identifizierten mindestens einen Objekts, unterschiedliche Betrachtungswinkel, unterschiedliche Orientierungen des identifizierten mindestens einen Objekts und des Ego-Fahrzeugs relativ zueinander und so weiter. Außerdem können Änderungen der Umgebungsbedingungen zu Änderungen der Sichtbarkeit des identifizierten mindestens einen Objekts führen. Insgesamt wird das identifizierte mindestens eine Objekt während seiner Beobachtungsdauer, d.h. während es sich in der Umgebung des Fahrzeugs befindet, höchstwahrscheinlich unterschiedlich klassifiziert. Aufgrund der mehreren Klassifizierungen des jeweiligen Objekts können Probleme bei der Handhabung falscher Klassifizierungen überwunden werden.According to a modified embodiment of the invention, the step of performing an object classification for the identified at least one object comprises determining a probability that the identified at least one object belongs to a class, based on multiple classifications of the identified at least one object. If the same object can be observed over a longer period of time and the method is carried out continuously, this leads to several identifications of identical objects in the vicinity of the vehicle. However, if the identified at least one object or the ego vehicle moves, the visibility of the respective object can change. This relates to different distances of the identified at least one object, different viewing angles, different orientations of the identified at least one object and the ego vehicle relative to one another and so on. In addition, changes in the environmental conditions can lead to changes in the visibility of the identified at least one object. Overall, the identified at least one object will most likely be classified differently during its observation period, ie while it is in the vicinity of the vehicle. Due to the multiple classifications of the respective object, problems in handling incorrect classifications can be overcome.

Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Ausführen einer Objektklassifizierung für das identifizierte mindestens eine Objekt das Klassifizieren des identifizierten mindestens einen Objekts in der zweidimensionalen Datenpunktmatrix unter Verwendung eines Bilderkennungsalgorithmus und/oder unter Verwendung eines neuronalen Netzwerks auf. Das Verarbeiten einer zweidimensionalen Datenpunktmatrix vom Bildsensor, insbesondere von Videodaten, die eine Folge von mehreren Einzelbildern pro Sekunde enthalten, ist eine große Herausforderung. Riesige Datenmengen müssen in Echtzeit verarbeitet werden, um das identifizierte mindestens eine Objekt ohne Verzögerungen zuverlässig zu klassifizieren. Die Ressourcen des Fahrzeugs zum Verarbeiten der Daten sind jedoch in Bezug auf den Platz zum Unterbringen von Verarbeitungseinrichtungen und auch in Bezug auf verfügbare Rechenleistung und elektrische Leistung begrenzt. Selbst wenn die technischen Probleme behoben werden, sind die Ressourcen hinsichtlich des Preises beschränkt, um Fahrzeuge zu einem erschwinglichen Preis anzubieten. Eine leistungsfähige Möglichkeit zum Verarbeiten der zweidimensionalen Datenpunktmatrix besteht in der Verwendung eines neuronalen Netzwerks. Herkömmliche Anwendungen neuronaler Netzwerke zur Bildverarbeitung basieren typischerweise auf tiefen neuronalen Netzwerken. Die Verwendung solcher Netzwerktypen hat vielversprechende Ergebnisse zu einem erschwinglichen Preis aufgezeigt. Neuronale Netzwerke weisen eine Eingabe- und eine Ausgabeschicht sowie eine oder mehrere verborgene Schichten auf. Die verborgenen Schichten eines tiefen neuronalen Netzwerks bestehen typischerweise aus konvolutionellen Schichten, Pooling-Schichten, Fully-Connected-Schichten und Normalisierungsschichten. Die konvolutionellen Schichten wenden eine Faltungsoperation auf die Eingabe an und übergeben das Ergebnis an die nächste Schicht. Die Faltung emuliert die Antwort eines einzelnen Neurons auf visuelle Reize. Alternativ oder zusätzlich kann ein Bilderkennungsalgorithmus ausgeführt werden. Bilderkennung kann beispielsweise auf genetischen Algorithmen, auf Ansätzen, die auf CAD-ähnlichen Objektmodellen basieren, wie Primal Sketch, auf erscheinungbildbasierten Verfahren wie Edge Matching oder Conquer And Search, oder auf anderen merkmalsbasierten Verfahren wie Histogramm of Oriented Gradients (HOG), Haar-like Features, Scale-Invariant Feature Transformation (SIFT) oder Speeded UP Robust Feature (SURF) basieren.According to a modified embodiment of the invention, the step of performing an object classification for the identified at least one object includes classifying the identified at least one object in the two-dimensional data point matrix using an image recognition algorithm and / or using a neural network. The processing of a two-dimensional data point matrix from the image sensor, in particular video data that contains a sequence of several individual images per second, is a great challenge. Huge amounts of data have to be processed in real time in order to reliably classify the identified at least one object without delays. However, the resources of the vehicle for processing the data are limited in terms of the space for accommodating processing devices and also in terms of available computing power and electrical power. Even if the technical problems are resolved, resources are limited in terms of price to offer vehicles at an affordable price. A powerful way of processing the two-dimensional data point matrix is to use a neural network. Conventional applications of neural networks for image processing are typically based on deep neural networks. The use of such network types has shown promising results at an affordable price. Neural networks have an input and an output layer and one or more hidden layers. The hidden layers of a deep neural network typically consist of convolutional layers, pooling layers, fully connected layers and normalization layers. The convolutional layers apply a convolution operation to the input and pass the result to the next layer. The convolution emulates the response of a single neuron to visual stimuli. Alternatively or additionally, an image recognition algorithm can be carried out. Image recognition can, for example, be based on genetic algorithms, on approaches based on CAD-like object models such as Primal Sketch, on appearance-based processes such as Edge Matching or Conquer And Search, or on other feature-based processes such as Histogram of Oriented Gradients (HOG), Haar-like Features, Scale-Invariant Feature Transformation (SIFT) or Speeded UP Robust Feature (SURF).

Ähnlicherweise kann bereits der Schritt zum Identifizieren des mindestens einen Objekts in der zweidimensionalen Datenpunktmatrix das Identifizieren des mindestens einen Objekts in der zweidimensionalen Datenpunktmatrix unter Verwendung eines Bilderkennungsalgorithmus und/oder unter Verwendung eines neuronalen Netzwerks aufweisen. Die vorstehenden Prinzipien gelten auch in diesem Fall.Similarly, the step of identifying the at least one object in the two-dimensional data point matrix can already include identifying the at least one object in the two-dimensional data point matrix using an image recognition algorithm and / or using a neural network. The above principles also apply in this case.

Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Bestimmen der Form des identifizierten mindestens einen Objekts durch Verschmelzen der 2D-Formabschätzung und der 3D-Formabschätzung für das identifizierte mindestens eine Objekt das Ausführen eines Bayesschen Verschmelzungsalgorithmus auf. Es können jedoch auch andere Algorithmen zum Verschmelzen der 2D-Formabschätzung und der 3D-Formabschätzung verwendet werden. Weiterhin kann der gleiche Algorithmus verwendet werden, um z.B. einen Konfidenzgrad für die Form des jeweiligen Objekts bereitzustellen.According to a modified embodiment of the invention, the step of determining the shape of the identified at least one object by merging the 2D shape estimation and the 3D shape estimation for the identified at least one object includes executing a Bayesian merging algorithm. However, other algorithms for merging the 2D shape estimation and the 3D shape estimation can also be used. Furthermore, the same algorithm can be used to e.g. provide a degree of confidence for the shape of each object.

Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Bereitstellen einer zweidimensionalen Datenpunktmatrix, die die Umgebung des Fahrzeugs im Bildsichtfeld des mindestens einen Bildsensors darstellt, das Bereitstellen der zweidimensionalen Datenpunktmatrix durch mindestens eine Kamera auf. Bei herkömmlichen Fahrzeugen sind häufig eine oder mehrere Kameras zum Überwachen der Umgebung bereits integriert. In diesem Fall verursacht die Verwendung einer Kamera als Bildsensor keine zusätzlichen Kosten, wenn das Verfahren verwendet wird. Weiterhin können Kameras mit speziellen Linsen, z.B. mit Fischaugenlinsen, verwendet werden, die ein weites Sichtfeld von bis zu 180 Grad oder sogar mehr haben. Kameras liefern genaue Information über die Art eines Objekts. Durch die Verwendung der Nachtsichttechnologie, bei der Teile des für einen Menschen nicht sichtbaren elektromagnetischen Spektrums wie Nahinfrarot- oder Ultraviolettstrahlung berücksichtigt werden und bei der sehr empfindliche Detektoren verwendet werden, kann durch die Kamera in Situationen, in denen ein menschlicher Fahrer eingeschränkt ist, Information über Objekte erfassen.According to a modified embodiment of the invention, the step of providing a two-dimensional data point matrix, which represents the surroundings of the vehicle in the image field of view of the at least one image sensor, comprises providing the two-dimensional data point matrix by at least one camera. In conventional vehicles, one or more cameras for monitoring the surroundings are often already integrated. In this case, the use of a camera as an image sensor does not add any additional costs when the method is used. Furthermore, cameras with special lenses, for example with fisheye lenses, can be used, which have a wide field of view of up to 180 degrees or even more. Cameras provide precise information about the type of object. By using night vision technology, in which parts of the electromagnetic spectrum that is invisible to humans, such as near-infrared or ultraviolet radiation, using very sensitive detectors, can capture information about objects by the camera in situations where a human driver is restricted.

Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Bereitstellen einer dreidimensionalen Datenpunktmatrix, die die Umgebung des Fahrzeugs im Bereichssichtfeld darstellt, durch mindestens einen Bereichssensor das Bereitstellen der dreidimensionalen Datenpunktmatrix durch mindestens einen Sensor auf LiDAR-Basis und/oder durch mindestens einen Radarsensor auf. In vielen Fahrzeugen wird/werden ein Sensor auf LiDAR-Basis und/oder ein Radarsensor verwendet, z.B. in Kollisionsvermeidungssystemen, um beispielsweise einen Abstand zu einem Fremdfahrzeug vor dem Ego-Fahrzeug zu bestimmen. Sensoren auf LiDAR-Basis und/oder Radarsensoren liefern genaue Information über eine Position eines Objekts, insbesondere über seinen Abstand zum Ego-Fahrzeug. Sensoren auf LiDAR-Basis und/oder Radarsensoren können Sichtfelder von bis zu 360 Grad aufweisen, z.B. unter Verwendung rotierender Sensoren. Es ist auch möglich, mehrere Bereichssensoren zu verwenden, z.B. eine Kombination aus einem Sensor auf LiDAR-Basis und einem Radarsensor.According to a modified embodiment of the invention, the step of providing a three-dimensional data point matrix, which represents the surroundings of the vehicle in the area field of view, by means of at least one area sensor, comprises providing the three-dimensional data point matrix by means of at least one LiDAR-based sensor and / or by at least one radar sensor. Many vehicles use a LiDAR based sensor and / or a radar sensor, e.g. in collision avoidance systems, for example to determine a distance to another vehicle in front of the ego vehicle. LiDAR-based sensors and / or radar sensors provide precise information about the position of an object, in particular about its distance from the ego vehicle. LiDAR based sensors and / or radar sensors can have fields of view of up to 360 degrees, e.g. using rotating sensors. It is also possible to use several area sensors, e.g. a combination of a LiDAR-based sensor and a radar sensor.

Diese und andere Aspekte der Erfindung werden anhand der nachstehend beschriebenen Ausführungsformen ersichtlich und erläutert. Einzelne Merkmale, die in den Ausführungsformen dargestellt sind, können für sich alleine oder in Kombination einen Aspekt der vorliegenden Erfindung bilden. Merkmale der verschiedenen Ausführungsformen können von einer Ausführungsform auf eine andere Ausführungsform übertragen werden.These and other aspects of the invention will be apparent and illustrated in the embodiments described below. Individual features that are shown in the embodiments can form an aspect of the present invention on their own or in combination. Features of the various embodiments can be transferred from one embodiment to another embodiment.

Es zeigen:

  • 1 eine schematische Ansicht eines Fahrzeugs gemäß einer ersten bevorzugten Ausführungsform mit einem Fahrunterstützungssystem mit zwei Typen von Umgebungssensoren, einschließlich eines Bereichssensors und eines Bildsensors, und mit einer Verarbeitungseinheit in einer Umgebung mit mehreren Objekten;
  • 2 eine schematische Ansicht des Fahrzeugs von 1 mit vier Bereichssichtfeldern, die eine Rundumsicht des Bereichssensors liefern, zusammen mit einer Konfidenzabschätzung für das hinter dem Ego-Fahrzeug befindliche identifizierte Objekt;
  • 3 eine schematische Ansicht des Fahrzeugs von 2 mit einer Konfidenzabschätzung für das identifizierte Objekt, wobei sich das identifizierte Objekt neben dem Ego-Fahrzeug befindet;
  • 4 ein Diagramm zum Darstellen eines Konfidenzgrades für eine 2D-Formabschätzung basierend auf einer Verfolgung von Objekten über die Zeit und dem Ausführen einer Klassifizierung der Objekte;
  • 5 ein Diagramm zum Darstellen des Konfidenzgrades für eine 2D-Formabschätzung für mehrere Objekte basierend auf einer Klassifizierung der Objekte mit einer Umwandlung in Konfidenzabstandsinformation;
  • 6 ein Diagramm zum Darstellen einer Verschmelzung einer 2D-Formabschätzung und einer 3D-Formabschätzung für zwei Objekte basierend auf einer Klassifizierung der Objekte mit einer Umwandlung in Konfidenzabstandsinformation; und
  • 7 ein Diagramm zum Darstellen eines Konfidenzgrades für eine 2D-Formabschätzung für mehrere Objekte basierend auf einer Klassifizierung der Objekte mit einer Umwandlung in Konfidenzabstandsinformation.
  • 1 zeigt ein Fahrzeug 10 mit einem Fahrunterstützungssystem 12 gemäß einer ersten bevorzugten Ausführungsform.
Show it:
  • 1 a schematic view of a vehicle according to a first preferred embodiment with a driving support system with two types of environment sensors, including a range sensor and an image sensor, and with a processing unit in an environment with a plurality of objects;
  • 2 a schematic view of the vehicle of FIG 1 with four area fields of view that provide an all-round view of the area sensor, together with a confidence estimate for the identified object located behind the ego vehicle;
  • 3 a schematic view of the vehicle of FIG 2 with a confidence estimate for the identified object, the identified object being adjacent to the ego vehicle;
  • 4th a diagram showing a degree of confidence for a 2D shape estimation based on tracking objects over time and performing classification of the objects;
  • 5 a diagram for illustrating the degree of confidence for a 2D shape estimation for a plurality of objects based on a classification of the objects with a conversion into confidence distance information;
  • 6th a diagram for illustrating a merging of a 2D shape estimation and a 3D shape estimation for two objects based on a classification of the objects with a conversion into confidence distance information; and
  • 7th a diagram showing a degree of confidence for a 2D shape estimation for a plurality of objects based on a classification of the objects with a conversion to confidence distance information.
  • 1 shows a vehicle 10 with a driving assistance system 12 according to a first preferred embodiment.

Das Fahrzeug 10, das auch als Ego-Fahrzeug bezeichnet wird, kann ein beliebiger Typ eines Fahrzeugs 10 sein, z.B. ein PKW oder ein LKW. Das Fahrzeug 10 kann durch einen menschlichen Fahrer manuell gefahren werden. Alternativ unterstützt das Fahrzeug 10 halbautonomes oder autonomes Fahren. Daher kann das Fahrunterstützungssystem 12 ein Fahrunterstützungssystem 12 zum autonomen Bewegen des Fahrzeugs 10 sein. Darüber hinaus sind auf dem Fachgebiet andere Arten von Fahrunterstützungssystemen 12 bekannt. Es ist möglich, dass das Fahrzeug 10 Insassen, einschließlich eines Fahrers, transportiert oder nur für den Warentransport genutzt wird.The vehicle 10 , also known as an ego vehicle, can be any type of vehicle 10 be, e.g. a car or a truck. The vehicle 10 can be driven manually by a human driver. Alternatively, the vehicle provides support 10 semi-autonomous or autonomous driving. Therefore, the driving support system 12 a driving assistance system 12 for autonomous movement of the vehicle 10 be. In addition, other types of driving assistance systems are in the art 12 known. It is possible that the vehicle 10 Occupants, including a driver, are transported or used only for the transport of goods.

Das Fahrunterstützungssystem 12 ist zur Objektformerfassung basierend auf zwei Typen von Umgebungssensoren 14, 16 vorgesehen. Als einen ersten Umgebungssensortyp 14, 16 weist das Fahrunterstützungssystem 12 einen Bildsensor 14 zum Bereitstellen einer zweidimensionalen Datenpunktmatrix auf, die die Umgebung 18 des Fahrzeugs 10 in einem Bildsichtfeld 20 darstellt. Als einen zweiten Umgebungssensortyp 14, 16 weist das Fahrunterstützungssystem 12 einen Bereichssensor 16 zum Bereitstellen einer dreidimensionalen Datenpunktmatrix auf, die die Umgebung 18 des Fahrzeugs 10 in einem Bereichssichtfeld 22 darstellt. Das Bereichssichtfeld 22 deckt gemäß der ersten Ausführungsform einen Bereich von 360° der Umgebung 18 des Fahrzeugs 10 ab und ist daher durch einen spiralförmigen Pfeil angezeigt. Das Bereichssichtfeld 22, das gemäß der ersten Ausführungsform den Bereich von 360° der Umgebung 18 des Fahrzeugs 10 abdeckt, wird durch vier individuelle LiDAR-Einrichtungen erhalten, die nicht einzeln dargestellt sind und die sich auf jeder Seite des Fahrzeugs 10 befinden, wobei jede dieser Einrichtungen ein Teilsichtfeld 30 von ungefähr 150° aufweist. Die Teilsichtfelder 30 überlappen sich, wie z.B. in den 2 und 3 ersichtlich ist, und bilden zusammen das Bereichssichtfeld 22, das den Bereich von 360° abdeckt. Sensorinformation der LiDAR-Einrichtungen wird zusammen verarbeitet, so dass die LiDAR-Einrichtungen zusammen den Bereichssensor 16 bilden.The driving support system 12 is for object shape detection based on two types of environmental sensors 14th , 16 intended. As a first type of environmental sensor 14th , 16 instructs the driving assistance system 12 an image sensor 14th to provide a two-dimensional data point matrix, which the environment 18th of the vehicle 10 in an image field of view 20th represents. As a second type of environmental sensor 14th , 16 instructs the driving assistance system 12 an area sensor 16 to provide a three-dimensional data point matrix, which the environment 18th of the vehicle 10 in an area field of view 22nd represents. The area field of view 22nd according to the first embodiment, covers an area of 360 ° of the surroundings 18th of the vehicle 10 and is therefore indicated by a spiral arrow. The area field of view 22nd , according to the first embodiment, the range of 360 ° of Surroundings 18th of the vehicle 10 covers is obtained by four individual LiDAR devices, not shown individually and which are located on each side of the vehicle 10 are located, each of these facilities having a partial field of view 30th of about 150 °. The partial fields of view 30th overlap, such as in the 2 and 3 can be seen, and together form the area field of view 22nd that covers the area of 360 °. Sensor information of the LiDAR devices is processed together so that the LiDAR devices together form the area sensor 16 form.

Der Bildsensor 14 ist eine Einrichtung, die Information erfasst und überträgt, die zum Bereitstellen einer zweidimensionalen Datenpunktmatrix verwendet wird, die wiederum in einer Ebene dargestellt werden kann. Der Bildsensor 14 wandelt eine variable Abschwächung von Lichtwellen oder elektromagnetischen Wellen in elektrische Signale um. Die Lichtwellen oder elektromagnetischen Wellen können unterschiedliche Wellenlängen haben. In Abhängigkeit von der Wellenlänge können verschiedene Typen von Bildsensoren 14 verwendet werden. Beispielsweise kann für das sichtbare Spektrum des Lichts eine Kamera verwendet werden. Die zweidimensionale Datenpunktmatrix kann in kartesischen Koordinaten oder in Polarkoordinaten bereitgestellt werden. Die Datenpunkte selbst können mit mehreren Informationselementen annotiert sein. Beispielsweise liefert eine Farbkamera ein pixelbasiertes Bild als zweidimensionale Datenpunktmatrix, wobei die einzelnen Pixel Information enthalten, z.B. in den drei Farbkanälen RGB. Alternativ können die einzelnen Pixel Information über die Signalintensität und/oder einen Helligkeitswert enthalten. In dieser Ausführungsform ist der Bildsensor 14 eine optische Frontkamera.The image sensor 14th is a device that collects and transmits information that is used to provide a two-dimensional data point matrix that can in turn be represented in a plane. The image sensor 14th converts a variable attenuation of light waves or electromagnetic waves into electrical signals. The light waves or electromagnetic waves can have different wavelengths. Different types of image sensors can be used depending on the wavelength 14th be used. For example, a camera can be used for the visible spectrum of the light. The two-dimensional data point matrix can be provided in Cartesian coordinates or in polar coordinates. The data points themselves can be annotated with several information elements. For example, a color camera delivers a pixel-based image as a two-dimensional data point matrix, with the individual pixels containing information, for example in the three color channels RGB. Alternatively, the individual pixels can contain information about the signal intensity and / or a brightness value. In this embodiment, the image sensor is 14th an optical front camera.

Der Bereichssensor 16 ist eine Einrichtung, die die dreidimensionale Struktur der Umgebung aus dem Blickwinkel des Umgebungssensors 14, 16 erfasst und üblicherweise die Tiefe und/oder den Abstand zu nähesten Oberflächen misst. In dieser Ausführungsform ist der Bereichssensor 16 ein Sensor auf LiDAR-Basis. In einer alternativen Ausführungsform ist der Bereichssensor 16 ein Sensor auf Radarbasis, ein Sensor auf Infrarotbasis oder ein Sensor auf Ultraschallbasis. Der Sensor auf LiDAR-Basis misst den Abstand zu einem Objekt 24 durch Beleuchten des Objekts 24 mit gepulstem Laserlicht und Messen von Reflexionen der emittierten Pulse. Dann werden Unterschiede in den Laserrücklaufzeiten, Wellenlängen und/oder in der Intensität bestimmt und verwendet, um die dreidimensionale Datenpunktmatrix bereitzustellen, die die Umgebung 18 des Fahrzeugs 10 abdeckt. Die Messungen des Abstands zu den Objekten 24 können an einzelnen Punkten der Umgebung 18 des Ego-Fahrzeugs 10 quer über Abtastebenen ausgeführt werden, oder die Messungen können an jedem Punkt der Umgebung 18 des Ego-Fahrzeugs 10 ein vollständiges Bild mit Tiefen- und/oder Abstandsmesswerten liefern. Die durch den Bereichssensor 16 bestimmten Daten können in sphärischen Koordinaten bereitgestellt werden, die den Abstand zu einem Objekt 24 und die Position des Objekts 24 relativ zu der Sensorposition enthalten, die durch den Polar- und den Azimutwinkel (Theta, Phi) bestimmt ist. Alternativ können die Daten in kartesischen Koordinaten bestimmt oder in diese umgewandelt werden und kann die Position des Objekts 24 relativ zu den Koordinatenachsen X, Y und Z und zum Ursprung des Koordinatensystems identifiziert werden.The area sensor 16 is a device that shows the three-dimensional structure of the environment from the perspective of the environment sensor 14th , 16 and usually measures the depth and / or the distance to the closest surfaces. In this embodiment the area sensor is 16 a sensor based on LiDAR. In an alternative embodiment, the area sensor is 16 a radar-based sensor, an infrared-based sensor, or an ultrasonic-based sensor. The LiDAR-based sensor measures the distance to an object 24 by illuminating the object 24 with pulsed laser light and measuring reflections of the emitted pulses. Differences in laser return times, wavelengths, and / or intensity are then determined and used to provide the three-dimensional data point matrix representing the environment 18th of the vehicle 10 covers. The measurements of the distance to the objects 24 can at individual points in the area 18th of the ego vehicle 10 across scan planes, or the measurements can be performed at any point in the environment 18th of the ego vehicle 10 provide a complete picture with depth and / or distance readings. The by the area sensor 16 certain data can be provided in spherical coordinates representing the distance to an object 24 and the position of the object 24 relative to the sensor position, which is determined by the polar and azimuth angles (theta, phi). Alternatively, the data can be determined or converted to Cartesian coordinates and can include the position of the object 24 relative to the coordinate axes X, Y and Z and the origin of the coordinate system.

Die Objekte 24 in der Umgebung 18 des Ego-Fahrzeugs 10 können jegliche Art von Objekten 24 sein. Sie können statische Objekte 24 wie Häuser, Verkehrszeichen oder geparkte Autos sein. Darüber hinaus können sich die Objekte 24 bewegen, wie beispielsweise verschiedenartige Fremdfahrzeuge oder Fußgänger.The objects 24 in the neighborhood 18th of the ego vehicle 10 can use any type of object 24 be. You can use static objects 24 be like houses, traffic signs, or parked cars. In addition, the objects can 24 move, such as different types of foreign vehicles or pedestrians.

Das Sichtfeld 20, 22 ist ein Sektor der Umgebung 18 des Fahrzeugs 10, von dem der jeweilige Umgebungssensor 14, 16 Sensorinformation erfasst. Das Sichtfeld 20, 22 der Umgebungssensoren 14, 16 wird durch das Design des jeweiligen Umgebungssensors 14, 16 beeinflusst. Beispielsweise erfasst die Frontkamera Information mittels einer Linse, die ankommende Lichtwellen fokussiert. Die Krümmung der Linse beeinflusst das Bildsichtfeld 20 der Kamera.The field of vision 20th , 22nd is a sector of the area 18th of the vehicle 10 from which the respective environmental sensor 14th , 16 Sensor information captured. The field of vision 20th , 22nd of the environmental sensors 14th , 16 is determined by the design of the respective environmental sensor 14th , 16 influenced. For example, the front camera records information using a lens that focuses incoming light waves. The curvature of the lens affects the field of view 20th the camera.

Das Fahrunterstützungssystem 12 weist ferner eine Steuereinheit 26 auf, die über einen Kommunikationsbus 28 mit den beiden Umgebungssensoren 14, 16 verbunden ist. Die Steuereinheit 26 empfängt die zweidimensionale Datenpunktmatrix, die die Umgebung 18 des Fahrzeugs 10 darstellt, sowie die dreidimensionale Datenpunktmatrix, die die Umgebung 18 des Fahrzeugs 10 darstellt, über den Kommunikationsbus 28 von den beiden Umgebungssensoren 14, 16.The driving support system 12 also has a control unit 26th on that via a communication bus 28 with the two environmental sensors 14th , 16 connected is. The control unit 26th receives the two-dimensional data point matrix, which the environment 18th of the vehicle 10 as well as the three-dimensional data point matrix that represents the surroundings 18th of the vehicle 10 represents, via the communication bus 28 from the two environmental sensors 14th , 16 .

Nachfolgend wird ein Verfahren zur Objektformerfassung diskutiert, das durch das Fahrunterstützungssystem 12 der ersten Ausführungsform ausgeführt wird. Ein Ablaufdiagramm des Verfahrens ist in 7 dargestellt. Die Objektformerfassung basiert auf den zwei Typen von Umgebungssensoren 14, 16, die in dem Fahrunterstützungssystem 12 des Fahrzeugs 10 der ersten Ausführungsform verwendet werden. Das Verfahren wird unter weiterem Bezug auf die 2 bis 6 beschrieben.A method for object shape detection that is implemented by the driving assistance system is discussed below 12 of the first embodiment is carried out. A flow chart of the process is shown in 7th shown. The object shape detection is based on the two types of environmental sensors 14th , 16 that are in the driving assistance system 12 of the vehicle 10 of the first embodiment can be used. The procedure is described with further reference to the 2 to 6th described.

Das Verfahren beginnt mit Schritt S100, der sich auf das Bereitstellen einer zweidimensionalen Datenpunktmatrix bezieht, die die Umgebung 18 des Fahrzeugs 10 im Bildsichtfeld 20 des Bildsensors 14 darstellt. Die zweidimensionale Datenpunktmatrix wird vom Bildsensor 14 über den Kommunikationsbus 28 an die Steuereinheit 26 übertragen, die dann die weitere Verarbeitung ausführt.The procedure begins with step S100 , which refers to providing a two-dimensional data point matrix that represents the environment 18th of the vehicle 10 in the field of view 20th of the image sensor 14th represents. The two-dimensional data point matrix is from the image sensor 14th via the communication bus 28 to the control unit 26th which then carries out further processing.

Schritt S110 bezieht sich auf das Identifizieren mindestens eines Objekts 24 in der zweidimensionalen Datenpunktmatrix. Das Identifizieren des mindestens einen Objekts 24 in der zweidimensionalen Datenpunktmatrix bezieht sich auf das Erfassen eines bestimmten Objekts 24. Auf dem Fachgebiet sind verschiedene Verfahren zum Ausführen z.B. einer Bildverarbeitung zum Identifizieren der Objekte 24 bekannt. Beispielsweise kann das Identifizieren der Objekte 24 in der zweidimensionalen Datenpunktmatrix unter Verwendung eines Bilderkennungsalgorithmus und/oder unter Verwendung eines neuronalen Netzwerks ausgeführt werden. Es gelten die nachstehend unter Bezug auf Schritt S120 ausführlicher diskutierten Prinzipien.step S110 refers to identifying at least one object 24 in the two-dimensional data point matrix. Identifying the at least one object 24 in the two-dimensional data point matrix refers to the detection of a particular object 24 . Various methods are known in the art for performing such as image processing to identify the objects 24 known. For example, identifying the objects 24 in the two-dimensional data point matrix using an image recognition algorithm and / or using a neural network. The following apply with reference to step S120 principles discussed in more detail.

Schritt S120 bezieht sich auf das Ausführen einer Objektklassifizierung für das identifizierte mindestens eine Objekt 24 in der zweidimensionalen Datenpunktmatrix. Schritt S120 wird unter Verwendung eines Bilderkennungsalgorithmus und/oder unter Verwendung eines neuronalen Netzwerks ausgeführt. Beispielsweise basiert das neuronale Netzwerk für Bildverarbeitung in dieser Ausführungsform auf einem tiefen neuronalen Netzwerk. Das neuronale Netzwerk weist eine Eingabe- und eine Ausgabeschicht sowie eine oder mehrere verborgene Schichten auf. Die verborgenen Schichten des tiefen neuronalen Netzwerks bestehen aus konvolutionellen Schichten, Pooling-Schichten, Fully-Connected-Schichten und Normalisierungsschichten. Die konvolutionellen Schichten wenden eine Faltungsoperation auf die Eingabe an, wobei das Ergebnis an die nächste Schicht übergeben wird. Die Faltung emuliert die Antwort eines einzelnen Neurons auf visuelle Reize. Alternativ kann ein Bilderkennungsalgorithmus ausgeführt werden. Bilderkennung basiert beispielsweise auf genetischen Algorithmen, auf Ansätzen, die auf CAD-ähnlichen Objektmodellen basieren, wie Primal Sketch, auf erscheinungsformbasierten Verfahren, wie beispielswiese Edge Matching oder Conquer And Search, oder auf anderen merkmalsbasierten Verfahren, wie Histogram Oriented Gradients (HOG), Haar-like Features, Scale-Invariant Feature Transformation (SIFT) oder Speeded UP Robust Feature (SURF).step S120 refers to performing an object classification on the identified at least one object 24 in the two-dimensional data point matrix. step S120 is carried out using an image recognition algorithm and / or using a neural network. For example, the neural network for image processing in this embodiment is based on a deep neural network. The neural network has an input and an output layer and one or more hidden layers. The hidden layers of the deep neural network consist of convolutional layers, pooling layers, fully connected layers and normalization layers. The convolutional layers apply a convolution operation to the input, with the result being passed to the next layer. The convolution emulates the response of a single neuron to visual stimuli. Alternatively, an image recognition algorithm can be carried out. Image recognition is based, for example, on genetic algorithms, on approaches based on CAD-like object models such as Primal Sketch, on appearance-based methods such as Edge Matching or Conquer And Search, or on other feature-based methods such as Histogram Oriented Gradients (HOG), Haar -like Features, Scale-Invariant Feature Transformation (SIFT) or Speeded UP Robust Feature (SURF).

Die Objektklassifizierung für das identifizierte mindestens eine Objekt 24 beinhaltet das Definieren eines Satzes von Klassen von Objekten 24 und das Zuweisen einer der Klassen zu dem identifizierten mindestens einen Objekt 24. Jeder Klasse von Objekten 24 ist eine vordefinierte Forminformation zugewiesen, und der Schritt zum Ausführen einer 2D-Formabschätzung des identifizierten mindestens einen Objekts 24 weist das Ausführen der 2D-Formabschätzung des identifizierten mindestens einen Objekts 24 basierend auf der vordefinierten Forminformation auf. Daher ist jeder Klasse von Objekten 24 typische Forminformation für Objekte 24 dieser Klasse zugewiesen. Wie in den 4 und 5 ersichtlich ist, kann das identifizierte mindestens eine Objekt 24 als unbekannt, Fußgänger, Fahrrad, PKW, LKW, Tier, Barriere oder virtuell klassifiziert werden.The object classification for the identified at least one object 24 involves defining a set of classes of objects 24 and assigning one of the classes to the identified at least one object 24 . Any class of objects 24 a predefined shape information is assigned, and the step of performing a 2D shape estimation of the identified at least one object 24 instructs performing the 2D shape estimation of the identified at least one object 24 based on the predefined shape information. Hence every class of objects 24 typical shape information for objects 24 assigned to this class. As in the 4th and 5 As can be seen, the identified can be at least one object 24 classified as unknown, pedestrian, bicycle, car, truck, animal, barrier or virtual.

Schritt S130 bezieht sich auf das Verfolgen des identifizierten mindestens einen Objekts 24 zwischen verschiedenen Identifizierungen des mindestens einen Objekts 24 in der zweidimensionalen Datenpunktmatrix. Daher wird das identifizierte mindestens eine Objekt 24 verfolgt, solange es sich mindestens innerhalb des Bildsichtfeldes 20 oder des Bereichssichtfeldes 22 befindet.step S130 refers to tracking the identified at least one object 24 between different identifications of the at least one object 24 in the two-dimensional data point matrix. Hence the identified at least one object 24 tracked as long as it is at least within the field of view 20th or the area field of view 22nd is located.

Schritt S140 bezieht sich auf das Ausführen einer 2D-Formabschätzung des identifizierten mindestens einen Objekts 24 basierend auf der zweidimensionalen Datenpunktmatrix. Die 2D-Formabschätzung des identifizierten mindestens einen Objekts 24 wird unter zusätzlicher Berücksichtigung der Klassifizierung des identifizierten mindestens einen Objekts 24 und der verfolgten Identifizierungen des mindestens einen Objekts 24 ausgeführt.step S140 refers to performing a 2D shape estimation of the identified at least one object 24 based on the two-dimensional data point matrix. The 2D shape estimate of the identified at least one object 24 is taking into account the classification of the identified at least one object 24 and the tracked identifications of the at least one object 24 executed.

Wie unter Bezug auf 4 ersichtlich ist, wird jedes Objekt 24 bei einer ersten Erfassung mit einem Zählwert von Null initialisiert, der eine Anzahl von Klassifizierungen jeder Klasse angibt. Ferner hat jede Klasse die gleiche Wahrscheinlichkeit für die Darstellung des identifizierten mindestens einen Objekts 24. Dies geschieht bei der Beobachtungsdauer 0, z.B. bevor die erste Klassifizierung des mindestens einen Objekts 24 erfolgt. Jedes Mal, wenn das identifizierte mindestens eine Objekt 24 erneut identifiziert und klassifiziert wird, wird der entsprechende Zählwert inkrementiert und wird die Wahrscheinlichkeit jeder Klasse für die Darstellung des identifizierten mindestens einen Objekts 24 angepasst. Wie in 4 ersichtlich ist, ist, wenn das identifizierte mindestens eine Objekt 24 beispielsweise eine Beobachtungsdauer von 42 erreicht, das identifizierte mindestens eine Objekt 24 als unbekannt, PKW und LKW klassifiziert worden. Die höchste Anzahl an Klassifizierungen des identifizierten mindestens einen Objekts 24 bezieht sich auf die Klasse LKW, so dass dieser Klasse die höchste Wahrscheinlichkeit zugeordnet wird. Daher wird die Wahrscheinlichkeit, dass das identifizierte mindestens eine Objekts 24 zu einer Klasse gehört, basierend auf mehreren Klassifizierungen des identifizierten mindestens einen Objekts 24 bestimmt.As referring to 4th can be seen, every object 24 initialized on a first detection with a count of zero indicating a number of classifications of each class. Furthermore, each class has the same probability of representing the identified at least one object 24 . This happens with the observation period 0 , for example before the first classification of the at least one object 24 he follows. Every time that identified at least one object 24 is identified and classified again, the corresponding count is incremented and the probability of each class for the representation of the identified at least one object 24 customized. As in 4th it can be seen is if the identified at least one object 24 For example, if an observation period of 42 is reached, the identified at least one object 24 classified as unknown, cars and trucks. The highest number of classifications of the identified at least one object 24 refers to the truck class, so this class is assigned the highest probability. Hence the probability that the identified at least one object 24 belongs to a class based on multiple classifications of the identified at least one object 24 certainly.

Die 2D-Formabschätzung des identifizierten mindestens einen Objekts 24 wird basierend auf der bestimmten Wahrscheinlichkeit für eine Zugehörigkeit des identifizierten mindestens einen Objekts 24 zu den verschiedenen Klassen zusammen mit einer Nachschlagetabelle ausgeführt, die typische Forminformation angibt. Beispielsweise ist gemäß dieser Ausführungsform dem Klassen-PKW eine Länge von 4,5 Metern zugewiesen, dem Klassen-LKW eine Länge von 12 Metern zugewiesen, dem Klassen-Motorrad eine Länge von 1,5 Metern zugewiesen und dem Klassen-Fußgänger eine Länge von 1 Meter zugewiesen. Ähnlicherweise wird auch die Breite des identifizierten mindestens einen Objekts 24 bestimmt.The 2D shape estimate of the identified at least one object 24 is based on the determined probability of belonging to the identified at least one object 24 for the various classes along with a look-up table giving typical shape information. For example, according to this embodiment, the class car is assigned a length of 4.5 meters, the class truck is assigned a length of 12 meters, the class motorcycle is assigned a length of 1.5 meters and the class pedestrian is assigned a length of 1 Meters assigned. The width of the identified at least one object is also similar 24 certainly.

Ferner wird ein 2D-Konfidenzgrad für die 2D-Formabschätzung für das identifizierte mindestens eine Objekt 24 bestimmt. Der 2D-Konfidenzgrad in Bezug auf die Länge des identifizierten mindestens einen Objekts 24 wird basierend auf der bestimmten Wahrscheinlichkeit der Zugehörigkeit des identifizierten mindestens einen Objekts 24 zu verschiedenen Klassen zusammen mit der Nachschlagetabelle bestimmt, die darüber hinaus typische Varianzinformation angibt. Beispielsweise ist gemäß dieser Ausführungsform dem Klassen-PKW eine Varianz von 1,5 Metern zugewiesen, dem Klassen-LKW eine Varianz von 6 Metern zugewiesen, dem Klassen-Motorrad eine Varianz von 0,5 Metern zugewiesen und dem Klassen-Fußgänger eine Varianz von 0,5 Metern zugewiesen. Ähnlicherweise wird auch der 2D-Konfidenzgrad in Bezug auf die Breite des identifizierten mindestens einen Objekts 24 bestimmt.Furthermore, a 2D degree of confidence is used for the 2D shape estimation for the identified at least one object 24 certainly. The 2D degree of confidence in relation to the length of the identified at least one object 24 is based on the determined probability of belonging to the identified at least one object 24 to different classes along with the look-up table, which also gives typical variance information. For example, according to this embodiment, the class car is assigned a variance of 1.5 meters, the class truck is assigned a variance of 6 meters, the class motorcycle is assigned a variance of 0.5 meters and the class pedestrian is assigned a variance of 0 , Assigned 5 meters. The 2D degree of confidence with regard to the width of the identified at least one object is also similar 24 certainly.

Daher wird in dieser Ausführungsform der Konfidenzgrad für die 2D-Formabschätzung für eine Breite und eine Länge des identifizierten mindestens einen Objekts 24 bestimmt. Die Breite und die Länge des Objekts 24 sind vorzugsweise in Bezug auf das Ego-Fahrzeug 10 definiert, d.h. gemäß der Längen- und der Breitenrichtung des Ego-Fahrzeugs 10, obwohl auch andere Definitionen verwendet werden können. Wesentlich ist lediglich eine Unterscheidung zwischen verschiedenen Seiten des identifizierten mindestens einen Objekts 24, z.B. eine Vorder- oder eine Rückseite und eine laterale Seite. Die Länge und die Breite können angepasst werden, falls das identifizierte mindestens eine Objekt 24 sich dreht und dem Ego-Fahrzeug 10 während seiner Beobachtungsdauer verschiedene Seiten zuwendet, z.B. während es sich im Sichtfeld mindestens eines Bildsensors 14 befindet.Therefore, in this embodiment, the degree of confidence for the 2D shape estimation for a latitude and a longitude of the identified at least one object 24 certainly. The width and length of the object 24 are preferably related to the ego vehicle 10 defined, ie according to the length and width direction of the ego vehicle 10 although other definitions can be used. It is only essential to distinguish between different sides of the identified at least one object 24 , e.g. a front or a back and a lateral side. The length and width can be adjusted if the identified at least one object 24 turns and the ego vehicle 10 turns to different sides during his observation period, eg while at least one image sensor is in the field of view 14th is located.

Drei Beispiele für identifizierte Objekte 24 und ihre abgeschätzte Form in Bezug auf die Länge sind in 3 dargestellt, wobei der linke, der mittlere und der rechte Vektor dem linken, dem mittleren und dem rechten Objekt 24 in 5 entsprechen. Jeder Vektor gibt die Wahrscheinlichkeit für jede Klasse gemäß 4 an. Jedes Objekt 24 ist zusammen mit seiner resultierenden Länge und dem 2D-Konfidenzgrad in Bezug auf die Länge dargestellt.Three examples of identified objects 24 and their estimated shape in terms of length are in 3 with the left, middle and right vectors being the left, middle and right objects 24 in 5 correspond. Each vector gives the probability for each class according to 4th on. Every object 24 is shown along with its resulting length and the 2D confidence level for the length.

Schritt S150 bezieht sich auf das Bereitstellen einer dreidimensionalen Datenpunktmatrix, die die Umgebung 18 des Fahrzeugs 10 im Bereichssichtfeld des Bereichssensors 16 darstellt. Die dreidimensionale Datenpunktmatrix wird vom Bereichssensor 16 über den Kommunikationsbus 28 an die Steuereinheit 26 übertragen, die dann die weitere Verarbeitung ausführt.step S150 refers to providing a three-dimensional data point matrix that represents the environment 18th of the vehicle 10 in the area field of view of the area sensor 16 represents. The three-dimensional data point matrix is provided by the area sensor 16 via the communication bus 28 to the control unit 26th which then carries out further processing.

Schritt S160 bezieht sich auf das Identifizieren mindestens eines Objekts 24 in der dreidimensionalen Datenpunktmatrix. Das Identifizieren mindestens eines Objekts 24 in der dreidimensionalen Datenpunktmatrix weist das Erfassen eines bestimmten Objekts 24 in der dreidimensionalen Datenpunktmatrix auf. Das Erfassen des mindestens einen Objekts 24 basiert beispielsweise auf dem Erfassen einer Gruppe von Datenpunkten, die nahe beieinander liegen.step S160 refers to identifying at least one object 24 in the three-dimensional data point matrix. Identifying at least one object 24 in the three-dimensional data point matrix, the acquisition of a specific object 24 in the three-dimensional data point matrix. Detecting the at least one object 24 for example, is based on acquiring a group of data points that are close together.

Schritt S170 bezieht sich auf das Ausführen einer 3D-Formabschätzung des identifizierten mindestens einen Objekts 24 basierend auf der dreidimensionalen Datenpunktmatrix. Dies beinhaltet das Bestimmen einer Länge und einer Breite des identifizierten mindestens einen Objekts 24 basierend auf den Datenpunkten der dreidimensionalen Matrix. Daher werden in Abhängigkeit von einer Orientierung des Objekts relativ zu dem Fahrzeug 10 Datenpunkte basierend auf Reflexionen von einer lateralen Seite des identifizierten mindestens einen Objekts 24 ausgewertet, um eine Länge des identifizierten mindestens einen Objekts 24 zu bestimmen, und Datenpunkte basierend auf Reflexionen von einer Vorder- oder einer Rückseite des identifizierten mindestens einen Objekts 24 werden ausgewertet, um eine Breite des identifizierten mindestens einen Objekts 24 zu bestimmen.step S170 refers to performing a 3D shape estimation of the identified at least one object 24 based on the three-dimensional data point matrix. This includes determining a length and a width of the identified at least one object 24 based on the data points of the three-dimensional matrix. Therefore, depending on an orientation of the object relative to the vehicle 10 Data points based on reflections from a lateral side of the identified at least one object 24 evaluated to a length of the identified at least one object 24 to determine, and data points based on reflections from a front or a back of the identified at least one object 24 are evaluated to a width of the identified at least one object 24 to determine.

Ferner wird ein 3D-Konfidenzgrad für die 3D-Formabschätzung für das identifizierte mindestens eine Objekt 24 bestimmt. Dies beinhaltet das Bestimmen eines 3D-Konfidenzgrades für eine Breite und eine Länge des identifizierten mindestens einen Objekts 24 basierend auf einer Position des identifizierten mindestens einen Objekts 24 in Bezug auf das Fahrzeug 10, insbesondere in Bezug auf eine Position des Bereichssensors 16 am Fahrzeug 10. Die Position beinhaltet vorzugsweise eine Winkelposition des jeweiligen Objekts 24 relativ zum Fahrzeug 10. In Abhängigkeit von der Winkelposition wenden Objekte 24 wie Fremdfahrzeuge oder andere rechteckige Objekte ihre Vorder-/Rückseite oder ihre lateralen Seiten dem Fahrzeug 10 unterschiedlich zu. Details sind in den 2 und 3 ersichtlich. Beispielsweise kann für ein Objekt 24 vor dem Ego-Fahrzeug 10 keine Längeninformation bestimmt werden, da die lateralen Seiten des Objekts 24 dem Ego-Fahrzeug 10 und dem Bereichssensor 16 nicht zugewandt sind. Daher ist der Konfidenzgrad für die Breite dieses Objekts 24 sehr hoch, wohingegen der Konfidenzgrad für die Länge dieses Objekts 24 ziemlich niedrig ist. Die gleichen Prinzipien gelten für ein Objekt 24 neben dem Ego-Fahrzeug 10, bei dem keine Breiteninformation bestimmt werden kann, da die Vorder-/Rückseite des Objekts 24 dem Ego-Fahrzeug 10 und dem Bereichssensor 16 nicht zugewandt ist. Daher ist der Konfidenzgrad für die Länge des Objekts 24 sehr hoch, während der Konfidenzgrad für die Breite ziemlich niedrig ist. Die Position kann ferner einen Abstand des entsprechenden Objekts 24 relativ zum Fahrzeug 10 beinhalten. Je größer der Abstand ist, desto geringer ist die Anzahl an Datenpunkten, die das entsprechende Objekt 24 abdecken. Dies führt zu niedrigeren Konfidenzgraden für Objekte 24, die weiter vom Ego-Fahrzeug 10 entfernt sind.Furthermore, a 3D degree of confidence is used for the 3D shape estimation for the identified at least one object 24 certainly. This includes the determination of a 3D degree of confidence for a latitude and a length of the identified at least one object 24 based on a position of the identified at least one object 24 in relation to the vehicle 10 , particularly with respect to a position of the area sensor 16 at the vehicle 10 . The position preferably includes an angular position of the respective object 24 relative to the vehicle 10 . Objects turn depending on the angular position 24 like foreign vehicles or other rectangular objects their front / rear or their lateral sides to the vehicle 10 different to. Details are in the 2 and 3 evident. For example, for an object 24 in front of the ego vehicle 10 no length information can be determined because the lateral sides of the object 24 the ego vehicle 10 and the area sensor 16 are not facing. Hence the confidence level for the width is this Object 24 very high, whereas the degree of confidence for the length of this object 24 is pretty low. The same principles apply to an object 24 next to the ego vehicle 10 where width information cannot be determined because the front / back of the object 24 the ego vehicle 10 and the area sensor 16 is not facing. Hence the confidence level for the length of the object 24 very high, while the latitude confidence level is quite low. The position can also be a distance of the corresponding object 24 relative to the vehicle 10 include. The greater the distance, the fewer the number of data points the corresponding object is 24 cover. This leads to lower confidence levels for objects 24 that continues from the ego vehicle 10 are away.

Der Konfidenzgrad für die Länge und die Breite wird basierend auf einer Gaußkurve bestimmt, die auf Winkelrichtungen von 0° bis 180° oder +90° bis -90° abgebildet ist. Der Konfidenzgrad bezieht sich auf die Höhe, wenn die Kurve von der Winkelposition des mindestens einen Objekts 24 abhängt.The degree of confidence for longitude and latitude is determined based on a Gaussian curve, which is mapped to angular directions from 0 ° to 180 ° or + 90 ° to -90 °. The degree of confidence refers to the height if the curve is from the angular position of the at least one object 24 depends.

Somit wird in dieser Ausführungsform der Konfidenzgrad für die 3D-Formabschätzung für eine Breite und eine Länge des identifizierten mindestens einen Objekts 24 bestimmt. Die Breite und die Länge des Objekts 24 sind vorzugsweise in Bezug auf das Ego-Fahrzeug 10 definiert, d.h. gemäß der Längen- und der Breitenrichtung des Ego-Fahrzeugs 10, obwohl auch andere Definitionen verwendet werden können. Wesentlich ist lediglich eine Unterscheidung zwischen verschiedenen Seiten des identifizierten mindestens einen Objekts 24, z.B. eine Vorderseite und eine laterale Seite. Die Länge und die Breite können angepasst werden, falls das identifizierte mindestens eine Objekt 24 sich dreht und dem Ego-Fahrzeug 10 während seiner Beobachtungsdauer verschiedene Seiten zuwendet, z.B. während es sich im Sichtfeld mindestens eines der Bereichssensoren 16 befindet.Thus, in this embodiment, the degree of confidence for the 3D shape estimation for a width and a length of the identified at least one object 24 certainly. The width and length of the object 24 are preferably related to the ego vehicle 10 defined, ie according to the length and width direction of the ego vehicle 10 although other definitions can be used. It is only essential to distinguish between different sides of the identified at least one object 24 , e.g. a front and a lateral side. The length and width can be adjusted if the identified at least one object 24 turns and the ego vehicle 10 turns to different sides during its observation period, eg while at least one of the area sensors is in the field of view 16 is located.

Schritt S180 bezieht sich auf das Umwandeln des 3D-Konfidenzgrades für die 3D-Formabschätzung für das identifizierte mindestens eine Objekt 24 in Konfidenzabstandsinformation, insbesondere basierend auf einer Nachschlagetabelle. Der Konfidenzgrad ist eine Wahrscheinlichkeit dafür, dass die bestimmte Form des entsprechenden Objekts 24 korrekt ist. Daher ist der Konfidenzgrad ein Wert innerhalb des Intervalls [0; 1]. Die Konfidenzabstandsinformation definiert ein Intervall, das die korrekte Form mit einer vorgegebenen Wahrscheinlichkeit enthält. In diesem Zusammenhang wird die Form z.B. als eine Gaußverteilung betrachtet und basiert das Intervall auf einer Standardabweichung σ des Erwartungswertes µ. Daher kann die Konfidenzabstandsinformation innerhalb eines Intervalls von z.B. [5 m; 0,1 m] liegen. Die Nachschlagetabelle ermöglicht einen einfachen und schnellen Zugriff auf Konfidenzabstandsinformation basierend auf dem Konfidenzgrad. Die Umwandlung wird durch einen erfahrenen Benutzer definiert.step S180 refers to converting the 3D confidence level for the 3D shape estimate for the identified at least one object 24 in confidence distance information, in particular based on a look-up table. The degree of confidence is a probability that the particular shape of the corresponding object 24 correct is. Therefore the degree of confidence is a value within the interval [0; 1]. The confidence distance information defines an interval that contains the correct shape with a predetermined probability. In this context, the shape is viewed as a Gaussian distribution and the interval is based on a standard deviation σ of the expected value µ. Therefore, the confidence distance information can be within an interval of, for example, [5 m; 0.1 m]. The look-up table enables easy and quick access to confidence distance information based on the confidence level. The conversion is defined by an experienced user.

Wie oben unter Bezug auf Schritt S140 diskutiert wurde, ist der 2D-Konfidenzgrad für die 2D-Formabschätzung für das identifizierte mindestens eine Objekt 24 bereits als Konfidenzabstandsinformation bereitgestellt.As above with reference to step S140 discussed, is the 2D confidence level for the 2D shape estimate for the identified at least one object 24 already provided as confidence distance information.

Schritt S190 bezieht sich auf das Bestimmen der Form des identifizierten mindestens einen Objekts 24 durch Verschmelzen der 2D-Formabschätzung und der 3D-Formabschätzung für das identifizierte mindestens eine Objekt 24. Daher ist, wie in 6 ersichtlich ist, die Form des identifizierten mindestens einen Objekts 24 mit seiner Länge und seiner Breite relativ zu einer Bodenebene bestimmt. Ein Bayesscher Verschmelzungsalgorithmus wird verwendet, um die Verschmelzung der beiden Formabschätzungen auszuführen. In alternativen Ausführungsformen werden andere Algorithmen zum Verschmelzen der 2D-Formabschätzung und der 3D-Formabschätzung verwendet.step S190 relates to determining the shape of the identified at least one object 24 by merging the 2D shape estimation and the 3D shape estimation for the identified at least one object 24 . Hence, as in 6th it can be seen the shape of the identified at least one object 24 determined with its length and its width relative to a ground plane. A Bayesian blend algorithm is used to perform the blend of the two shape estimates. In alternative embodiments, other algorithms are used to merge the 2D shape estimation and the 3D shape estimation.

Das Verschmelzen der 2D-Formabschätzung und der 3D-Formabschätzung für das identifizierte mindestens eine Objekt 24 wird unter zusätzlicher Berücksichtigung des 2D-Konfidenzgrades und des 3D-Konfidenzgrades der 2D-Formabschätzung und der 3D-Formabschätzung für das identifizierte mindestens eine Objekt 24 ausgeführt. Je höher der jeweilige Konfidenzgrad ist, desto besser ist die 2D/3D-Formabschätzung. Wenn die Form des identifizierten mindestens einen Objekts 24 bestimmt wird, haben daher Formabschätzungen mit einem höheren Konfidenzgrad einen stärkeren Einfluss auf die Bestimmung der Form als Formabschätzungen mit einem niedrigeren Konfidenzgrad.The merging of the 2D shape estimation and the 3D shape estimation for the identified at least one object 24 is also taking into account the 2D degree of confidence and the 3D degree of confidence of the 2D shape estimation and the 3D shape estimation for the identified at least one object 24 executed. The higher the respective degree of confidence, the better the 2D / 3D shape estimation. If the shape of the identified at least one object 24 is determined, shape estimates with a higher degree of confidence therefore have a stronger influence on the determination of the shape than shape estimates with a lower degree of confidence.

Schritt S200 bezieht sich auf das Bestimmen eines Konfidenzgrades für die Form des identifizierten mindestens einen Objekts 24 insbesondere durch Verschmelzen der 2D-Formabschätzung und der 3D-Formabschätzung für das identifizierte mindestens eine Objekt 24 mit dem 2D-Konfidenzgrad und dem 3D-Konfidenzgrad der 2D-Formabschätzung und der 3D-Formabschätzung für das identifizierte mindestens eine Objekt 24. Als Ergebnis kann auch die Form des identifizierten mindestens einen Objekts 24 mit einem Konfidenzgrad versehen werden, der bei der Weiterverarbeitung der Form des identifizierten mindestens einen Objekts 24 verwendet werden kann, insbesondere in einem weiteren Fahrunterstützungssystem.step S200 relates to determining a degree of confidence for the shape of the identified at least one object 24 in particular by merging the 2D shape estimation and the 3D shape estimation for the identified at least one object 24 with the 2D degree of confidence and the 3D degree of confidence of the 2D shape estimation and the 3D shape estimation for the identified at least one object 24 . As a result, the shape of the identified at least one object can also be 24 be provided with a degree of confidence that is used in the further processing of the shape of the identified at least one object 24 can be used, in particular in a further driving assistance system.

Die Schritte des Verfahrens können allgemein in einer beliebigen geeigneten Reihenfolge ausgeführt werden. Dies beinhaltet, dass einige Schritte z.B. parallel ausgeführt werden können. Beispielsweise können die zum Ausführen der 2D-Formabschätzung des identifizierten mindestens einen Objekts 24 erforderlichen Schritte parallel zu den Schritten ausgeführt werden, die zum Ausführen der 3D-Formabschätzung des identifizierten mindestens einen Objekts 24 erforderlich sind.The steps of the method can generally be carried out in any suitable order. This means that some steps can be carried out in parallel, for example. For example, the for performing the 2D shape estimation of the identified at least one object 24 necessary steps are carried out in parallel to the steps required to carry out the 3D shape estimation of the identified at least one object 24 required are.

BezugszeichenlisteList of reference symbols

1010
Fahrzeugvehicle
1212th
FahrunterstützungssystemDriving support system
1414th
Umgebungssensor, BildsensorEnvironment sensor, image sensor
1616
Umgebungssensor, BereichssensorEnvironment sensor, area sensor
1818th
UmgebungSurroundings
2020th
BildsichtfeldField of view
2222nd
BereichssichtfeldArea field of view
2424
Objektobject
2626th
SteuereinheitControl unit
2828
KommunikationsbusCommunication bus
3030th
TeilsichtfeldPartial field of view

Claims (15)

Verfahren zur Objektformerfassung basierend auf zwei Typen von Umgebungssensoren (14, 16), die in einem Fahrunterstützungssystem (12) eines Fahrzeugs (10) verwendet werden, wobei der erste Umgebungssensortyp (14, 16) ein Bildsensor (14) mit einem Bildsichtfeld (20) und der zweite Umgebungssensortyp ein Bereichssensor (16) mit einem Bereichssichtfeld (22) ist, das das Bildsichtfeld (20) mindestens teilweise überlappt, mit den Schritten: Bereitstellen einer zweidimensionalen Datenpunktmatrix, die die Umgebung (18) des Fahrzeugs (10) im Bildsichtfeld (20) darstellt, unter Verwendung mindestens eines Bildsensors (14); Identifizieren mindestens eines Objekts (24) in der zweidimensionalen Datenpunktmatrix; Ausführen einer 2D-Formabschätzung des identifizierten mindestens einen Objekts (24) basierend auf der zweidimensionalen Datenpunktmatrix; Bereitstellen einer dreidimensionalen Datenpunktmatrix, die die Umgebung (18) des Fahrzeugs (10) im Bereichssichtfeld (22) darstellt, unter Verwendung mindestens eines Bereichssensors (16); Identifizieren mindestens eines Objekts (24) in der dreidimensionalen Datenpunktmatrix; Ausführen einer 3D-Formabschätzung des identifizierten mindestens einen Objekts (24) basierend auf der dreidimensionalen Datenpunktmatrix; und Bestimmen der Form des identifizierten mindestens einen Objekts (24) durch Verschmelzen der 2D-Formabschätzung und der 3D-Formabschätzung für das identifizierte mindestens eine Objekt (24).Method for object shape detection based on two types of environment sensors (14, 16) which are used in a driving support system (12) of a vehicle (10), the first type of environment sensor (14, 16) being an image sensor (14) with an image field of view (20) and the second type of environment sensor is an area sensor (16) having an area field of view (22) which at least partially overlaps the image field of view (20), comprising the steps of: Providing a two-dimensional data point matrix, which represents the surroundings (18) of the vehicle (10) in the image field of view (20), using at least one image sensor (14); Identifying at least one object (24) in the two-dimensional data point matrix; Performing a 2D shape estimation of the identified at least one object (24) based on the two-dimensional data point matrix; Providing a three-dimensional data point matrix which represents the surroundings (18) of the vehicle (10) in the area field of view (22) using at least one area sensor (16); Identifying at least one object (24) in the three-dimensional data point matrix; Performing a 3D shape estimation of the identified at least one object (24) based on the three-dimensional data point matrix; and Determining the shape of the identified at least one object (24) by merging the 2D shape estimation and the 3D shape estimation for the identified at least one object (24). Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass der Schritt zum Ausführen einer 2D-Formabschätzung des identifizierten mindestens einen Objekts (24) das Bestimmen eines 2D-Konfidenzgrades für die 2D-Formabschätzung für das identifizierte mindestens eine Objekt (24) aufweist; der Schritt zum Ausführen einer 3D-Formabschätzung des identifizierten mindestens einen Objekts (24) das Bestimmen eines 3D-Konfidenzgrades für die 3D-Formabschätzung für das identifizierte mindestens eine Objekt (24) aufweist; und der Schritt zum Bestimmen der Form des identifizierten mindestens einen Objekts (24) durch Verschmelzen der 2D-Formabschätzung und der 3D-Formabschätzung für das identifizierte mindestens eine Objekt (24) das Verschmelzen der 2D-Formabschätzung und der 3D-Formabschätzung für das identifizierte mindestens eine Objekt (24) unter zusätzlicher Berücksichtigung des 2D-Konfidenzgrades und des 3D-Konfidenzgrades der 2D-Formabschätzung und der 3D-Formabschätzung für das identifizierte mindestens eine Objekt (24) aufweist.Procedure according to Claim 1 characterized in that the step of performing a 2D shape estimate of the identified at least one object (24) comprises determining a 2D degree of confidence for the 2D shape estimate for the identified at least one object (24); the step of performing a 3D shape estimation of the identified at least one object (24) comprises determining a 3D degree of confidence for the 3D shape estimation for the identified at least one object (24); and the step of determining the shape of the identified at least one object (24) by merging the 2D shape estimation and the 3D shape estimation for the identified at least one object (24) merging the 2D shape estimation and the 3D shape estimation for the identified at least one an object (24), taking into account the 2D degree of confidence and the 3D degree of confidence of the 2D shape estimation and the 3D shape estimation for the identified at least one object (24). Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass das Verfahren einen zusätzlichen Schritt zum Bestimmen eines Konfidenzgrades für die Form des identifizierten mindestens einen Objekts (24) insbesondere durch Verschmelzen der 2D-Formabschätzung und der 3D-Formabschätzung für das identifizierte mindestens eine Objekt (24) mit dem 2D-Konfidenzgrad und dem 3D-Konfidenzgrad der 2D-Formabschätzung und der 3D-Formabschätzung für das identifizierte mindestens eine Objekt (24) aufweist.Procedure according to Claim 2 , characterized in that the method includes an additional step for determining a degree of confidence for the shape of the identified at least one object (24), in particular by merging the 2D shape estimation and the 3D shape estimation for the identified at least one object (24) with the 2D And the 3D confidence level of the 2D shape estimation and the 3D shape estimation for the identified at least one object (24). Verfahren nach einem der vorhergehenden Ansprüche 2 oder 3, dadurch gekennzeichnet, dass das Verfahren einen zusätzlichen Schritt zum Verfolgen des identifizierten mindestens einen Objekts (24) zwischen verschiedenen Identifizierungen des mindestens einen Objekts (24) in der zweidimensionalen Datenpunktmatrix und/oder in der dreidimensionalen Datenpunktmatrix aufweist; und der Schritt zum Ausführen der 2D-Formabschätzung und/oder der 3D-Formabschätzung des identifizierten mindestens einen Objekts (24) das Ausführen der 2D-Formabschätzung und/oder der 3D-Formabschätzung unter Berücksichtigung der verfolgten Identifizierungen des mindestens einen Objekts (24) aufweist.Method according to one of the preceding Claims 2 or 3 characterized in that the method comprises an additional step of tracking the identified at least one object (24) between different identifications of the at least one object (24) in the two-dimensional data point matrix and / or in the three-dimensional data point matrix; and the step of executing the 2D shape estimation and / or the 3D shape estimation of the identified at least one object (24) comprises executing the 2D shape estimation and / or the 3D shape estimation taking into account the tracked identifications of the at least one object (24) . Verfahren nach einem der vorhergehenden Ansprüche 2 bis 4, dadurch gekennzeichnet, dass der Schritt zum Bestimmen eines 2D-Konfidenzgrades für die 2D-Formabschätzung und/oder zum Bestimmen eines 3D-Konfidenzgrades für die 3D-Formabschätzung für das identifizierte mindestens eine Objekt (24) das Bestimmen eines 2D-Konfidenzgrades und/oder eines 3D-Konfidenzgrades für eine Breite und eine Länge des identifizierten mindestens einen Objekts (24) aufweist.Method according to one of the preceding Claims 2 to 4th , characterized in that the step of determining a 2D degree of confidence for the 2D shape estimation and / or for determining a 3D degree of confidence for the 3D shape estimation for the identified at least one object (24) includes determining a 2D degree of confidence and / or a 3D degree of confidence for a width and has a length of the identified at least one object (24). Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass der Schritt zum Bestimmen eines 3D-Konfidenzgrades für eine Breite und eine Länge des identifizierten mindestens einen Objekts (24) das Bestimmen des 3D-Konfidenzgrades für die Breite und die Länge des identifizierten mindestens einen Objekts (24) basierend auf einer Position des identifizierten mindestens einen Objekts (24) in Bezug auf das Fahrzeug (10), insbesondere in Bezug auf eine Position des Bereichssensors (16), aufweist.Procedure according to Claim 5 , characterized in that the step of determining a 3D degree of confidence for a latitude and a length of the identified at least one object (24) includes determining the 3D degree of confidence for the latitude and the longitude of the identified at least one object (24) based on a Position of the identified at least one object (24) in relation to the vehicle (10), in particular in relation to a position of the area sensor (16). Verfahren nach einem der Ansprüche 2 bis 6, dadurch gekennzeichnet, dass das Verfahren einen zusätzlichen Schritt zum Umwandeln des 2D-Konfidenzgrades für die 2D-Formabschätzung für das identifizierte mindestens eine Objekt (24), des 3D-Konfidenzgrades für die 3D-Formabschätzung für das identifizierte mindestens eine Objekt (24) und/oder des Konfidenzgrades für die Form des identifizierten mindestens einen Objekts (24) in Konfidenzabstandsinformation aufweist, insbesondere basierend auf einer Nachschlagetabelle.Method according to one of the Claims 2 to 6th , characterized in that the method includes an additional step for converting the 2D degree of confidence for the 2D shape estimation for the identified at least one object (24), the 3D degree of confidence for the 3D shape estimation for the identified at least one object (24) and / or the degree of confidence for the shape of the identified at least one object (24) in confidence distance information, in particular based on a look-up table. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Verfahren einen zusätzlichen Schritt zum Ausführen einer Objektklassifizierung für das identifizierte mindestens eine Objekt (24) in der zweidimensionalen Datenpunktmatrix aufweist; und der Schritt zum Ausführen einer 2D-Formabschätzung des identifizierten mindestens einen Objekts (24) das Ausführen der 2D-Formabschätzung des identifizierten mindestens einen Objekts (24) unter zusätzlicher Berücksichtigung der Klassifizierung des identifizierten mindestens einen Objekts (24) aufweist.Method according to one of the preceding claims, characterized in that the method has an additional step for carrying out an object classification for the identified at least one object (24) in the two-dimensional data point matrix; and the step of performing a 2D shape estimation of the identified at least one object (24) comprises executing the 2D shape estimation of the identified at least one object (24) with additional consideration of the classification of the identified at least one object (24). Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass der Schritt zum Ausführen einer Objektklassifizierung für das identifizierte mindestens eine Objekt (24) das Definieren eines Satzes von Objektklassen (24) und das Zuweisen einer der Klassen zu dem identifizierten mindestens einen Objekt (24) aufweist, wobei jeder Objektklasse eine vordefinierte Forminformation zugewiesen ist; und der Schritt zum Ausführen einer 2D-Formabschätzung des identifizierten mindestens einen Objekts (24) das Ausführen der 2D-Formabschätzung des identifizierten mindestens einen Objekts (24) basierend auf der vordefinierten Forminformation aufweist.Procedure according to Claim 8 characterized in that the step of performing an object classification for the identified at least one object (24) comprises defining a set of object classes (24) and assigning one of the classes to the identified at least one object (24), each object class having one predefined shape information is assigned; and the step of performing a 2D shape estimation of the identified at least one object (24) comprises performing the 2D shape estimation of the identified at least one object (24) based on the predefined shape information. Verfahren nach Anspruch 8 oder 9, dadurch gekennzeichnet, dass der Schritt zum Ausführen einer Objektklassifizierung für das identifizierte mindestens eine Objekt (24) das Bestimmen einer Wahrscheinlichkeit für die Zugehörigkeit des identifizierten mindestens einen Objekts (24) zu einer bestimmten Klasse basierend auf mehreren Klassifizierungen des identifizierten mindestens einen Objekts (24) aufweist.Procedure according to Claim 8 or 9 characterized in that the step of performing an object classification for the identified at least one object (24) is determining a probability of the at least one identified object (24) belonging to a specific class based on a plurality of classifications of the identified at least one object (24 ) having. Verfahren nach einem der vorhergehenden Ansprüche 8 bis 10, dadurch gekennzeichnet, dass der Schritt zum Ausführen einer Objektklassifizierung für das identifizierte mindestens eine Objekt das Klassifizieren des identifizierten mindestens einen Objekts (24) in der zweidimensionalen Datenpunktmatrix (26) unter Verwendung eines Bilderkennungsalgorithmus und/oder unter Verwendung eines neuronalen Netzwerks aufweist.Method according to one of the preceding Claims 8 to 10 , characterized in that the step of performing an object classification for the identified at least one object comprises classifying the identified at least one object (24) in the two-dimensional data point matrix (26) using an image recognition algorithm and / or using a neural network. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Schritt zum Bestimmen der Form des identifizierten mindestens einen Objekts (24) durch Verschmelzen der 2D-Formabschätzung und der 3D-Formabschätzung für das identifizierte mindestens eine Objekt (24) das Ausführen eines Bayesschen Verschmelzungsalgorithmus aufweist.A method according to any one of the preceding claims, characterized in that the step of determining the shape of the identified at least one object (24) by merging the 2D shape estimation and the 3D shape estimation for the identified at least one object (24) is executing a Bayesian merging algorithm having. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Schritt zum Bereitstellen einer zweidimensionalen Datenpunktmatrix (26), die die Umgebung des Fahrzeugs (10) im Bildsichtfeld (18) darstellt, durch mindestens einen Bildsensor (14) das Bereitstellen der zweidimensionalen Datenpunktmatrix (26) durch mindestens eine Kamera (15) aufweist.Method according to one of the preceding claims, characterized in that the step of providing a two-dimensional data point matrix (26), which represents the surroundings of the vehicle (10) in the image field of view (18), by means of at least one image sensor (14) is providing the two-dimensional data point matrix ( 26) has at least one camera (15). Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Schritt zum Bereitstellen einer dreidimensionalen Datenpunktmatrix (28), die die Umgebung des Fahrzeugs (10) im Bereichssichtfeld (20) darstellt, durch mindestens einen Bereichssensor (16) das Bereitstellen der dreidimensionalen Datenpunktmatrix (28) durch mindestens einen Sensor auf LiDAR-Basis (17) und/oder mindestens einen Radarsensor aufweist.Method according to one of the preceding claims, characterized in that the step of providing a three-dimensional data point matrix (28), which represents the surroundings of the vehicle (10) in the area field of view (20), by means of at least one area sensor (16) is providing the three-dimensional data point matrix ( 28) has at least one LiDAR-based sensor (17) and / or at least one radar sensor. Fahrunterstützungssystem (12) zur Objektformerfassung basierend auf zwei Typen von Umgebungssensoren gemäß dem Verfahren nach einem der vorhergehenden Verfahrensansprüche 1 bis 14, wobei das Fahrunterstützungssystem (12) aufweist: mindestens einen Bildsensor (14) als ein erster Umgebungssensortyp zum Bereitstellen einer zweidimensionalen Datenpunktmatrix (26), die die Umgebung des Fahrzeugs (10) in einem Bildsichtfeld (18) darstellt; und mindestens einen Bereichssensor (16) als ein zweiter Umgebungssensortyp zum Bereitstellen einer dreidimensionalen Datenpunktmatrix (28), die die Umgebung des Fahrzeugs (10) in einem Bereichssichtfeld (20) darstellt, wobei das Bildsichtfeld (20) das Bereichssichtfeld (18) zumindest teilweise überlappt.Driving support system (12) for object shape detection based on two types of environment sensors according to the method according to one of the preceding methods claims 1 to 14th wherein the driving support system (12) comprises: at least one image sensor (14) as a first type of environment sensor for providing a two-dimensional data point matrix (26) which represents the environment of the vehicle (10) in an image field of view (18); and at least one area sensor (16) as a second type of environment sensor for providing a three-dimensional data point matrix (28) which represents the environment of the vehicle (10) in an area field of view (20), wherein the image field of view (20) at least partially overlaps the area field of view (18).
DE102019107650.1A 2019-03-26 2019-03-26 Object shape detection based on two types of environmental sensors Pending DE102019107650A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102019107650.1A DE102019107650A1 (en) 2019-03-26 2019-03-26 Object shape detection based on two types of environmental sensors

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019107650.1A DE102019107650A1 (en) 2019-03-26 2019-03-26 Object shape detection based on two types of environmental sensors

Publications (1)

Publication Number Publication Date
DE102019107650A1 true DE102019107650A1 (en) 2020-10-01

Family

ID=72612208

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019107650.1A Pending DE102019107650A1 (en) 2019-03-26 2019-03-26 Object shape detection based on two types of environmental sensors

Country Status (1)

Country Link
DE (1) DE102019107650A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150324658A1 (en) * 2014-05-06 2015-11-12 The Boeing Company Sensor fusion using detector confidence boosting
US20170220887A1 (en) * 2016-01-29 2017-08-03 Pointivo, Inc. Systems and methods for extracting information about objects from scene information

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150324658A1 (en) * 2014-05-06 2015-11-12 The Boeing Company Sensor fusion using detector confidence boosting
US20170220887A1 (en) * 2016-01-29 2017-08-03 Pointivo, Inc. Systems and methods for extracting information about objects from scene information

Similar Documents

Publication Publication Date Title
DE102011100927B4 (en) Object and vehicle detection and tracking using 3-D laser rangefinder
DE102015109270B4 (en) Method for determining a road surface condition for a vehicle
DE102011086512B4 (en) fog detection
EP1589484B1 (en) Method for detecting and/or tracking objects
DE102011117585B4 (en) Systems and methods for tracking objects
DE102019115874A1 (en) SYSTEMS AND METHODS FOR IMPROVED DISTANCE ESTIMATION BY A MONOCAMERA USING RADAR AND MOTION DATA
DE112018000899T5 (en) Joint 3D object detection and orientation estimation via multimodal fusion
DE112018007287T5 (en) VEHICLE SYSTEM AND METHOD FOR DETECTING OBJECTS AND OBJECT DISTANCE
DE102013113570A1 (en) Bayes network for tracking objects using search points using multiple LiDAR sensors
DE102013113571A1 (en) Methods and apparatus for merging radar / camera object data and LiDAR search points
DE102010005290A1 (en) Vehicle controlling method for vehicle operator i.e. driver, involves associating tracked objects based on dissimilarity measure, and utilizing associated objects in collision preparation system to control operation of vehicle
DE102011119767A1 (en) APPEARANCE-BASED ASSOCIATION OF CAMERA AND DISTANCE SENSORS FOR MULTIPLE OBJECTS
DE102018132805A1 (en) Procedure for improved object detection
DE102017218366A1 (en) METHOD AND PEDESTRIAN DETECTION APPROACH IN A VEHICLE
Nuss et al. Fusion of laser and monocular camera data in object grid maps for vehicle environment perception
EP1460454B1 (en) Method for combined processing of high resolution images and video images
DE102018133441A1 (en) Method and system for determining landmarks in the surroundings of a vehicle
DE102018121008A1 (en) CROSS TRAFFIC RECORDING USING CAMERAS
Milella et al. Visual ground segmentation by radar supervision
DE102023101354A1 (en) SENSOR FUSION
EP3931798B1 (en) Estimating the movement of an image position
DE102006039104A1 (en) Method for ranging or detection of stationary objects in surroundings of road vehicle using graphic data, involves testing object hypothesis such as stationary object against object hypothesis such as flat road
DE102021121712A1 (en) GROUP OBJECT TRACKING
DE102019209473A1 (en) Method and device for the rapid detection of repetitive structures in the image of a street scene
DE102019107650A1 (en) Object shape detection based on two types of environmental sensors

Legal Events

Date Code Title Description
R163 Identified publications notified
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000