DE102022208049A1 - Method for determining a parking space using a convolutional neural network - Google Patents

Method for determining a parking space using a convolutional neural network Download PDF

Info

Publication number
DE102022208049A1
DE102022208049A1 DE102022208049.1A DE102022208049A DE102022208049A1 DE 102022208049 A1 DE102022208049 A1 DE 102022208049A1 DE 102022208049 A DE102022208049 A DE 102022208049A DE 102022208049 A1 DE102022208049 A1 DE 102022208049A1
Authority
DE
Germany
Prior art keywords
vehicle
parking space
environment
parking
measurement data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022208049.1A
Other languages
German (de)
Inventor
Mohanad Youssef
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Continental Autonomous Mobility Germany GmbH
Original Assignee
Continental Autonomous Mobility Germany GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Continental Autonomous Mobility Germany GmbH filed Critical Continental Autonomous Mobility Germany GmbH
Priority to DE102022208049.1A priority Critical patent/DE102022208049A1/en
Priority to PCT/DE2023/200153 priority patent/WO2024027884A1/en
Publication of DE102022208049A1 publication Critical patent/DE102022208049A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/027Parking aids, e.g. instruction means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/06Automatic manoeuvring for parking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/027Parking aids, e.g. instruction means
    • B62D15/0285Parking performed automatically
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Chemical & Material Sciences (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Automation & Control Theory (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Ermitteln einer wenigstens eine Parklücke (9) beschreibenden Parkinformation mit einer Sensoreinrichtung (2) eines Fahrzeugs (1), wobei die Sensoreinrichtung (2) wenigstens einen Umfeldsensor (3) und eine Recheneinrichtung (4) aufweist, umfassend die Schritte:- Erfassen von ein Umfeld des Fahrzeugs (1) beschreibenden Messdaten mit dem wenigstens einen Umfeldsensor (1), wobei die Messdaten einem oder mehreren Objekten im Umfeld des Fahrzeugs (1) zugeordnet sind,- Erstellen wenigstens einer das Umfeld des Fahrzeugs (1) beschreibenden Umfeldkarte (5) aus den Messdaten, wobei die Messdaten in der Umfeldkarte räumlich in Bezug zu dem Fahrzeug (1) angegeben sind,- Auswerten der wenigstens einen Umfeldkarte (5) durch die Recheneinrichtung (4), wobei die Umfeldkarte (5) einem faltenden neuronalen Netzwerk zugeführt wird, wobei das neuronale Netzwerk aus der Umfeldkarte (5) im Umfeld des Fahrzeugs (1) vorhandene Parklücken (9) klassifiziert und lokalisiert, wobei das neuronale Netz mittels Regression jeweils die relative Anordnung der Parklücken (9) zu dem Fahrzeug (1) ermittelt, und- Erzeugen der Parkinformation aus den klassifizierten und lokalisierten Parklücken (9) sowie ihrer relativen Anordnung.The invention relates to a method for determining parking information describing at least one parking space (9) using a sensor device (2) of a vehicle (1), the sensor device (2) having at least one environment sensor (3) and a computing device (4), comprising Steps: - Acquiring measurement data describing an environment of the vehicle (1) with the at least one environment sensor (1), the measurement data being assigned to one or more objects in the environment of the vehicle (1), - Creating at least one of the surroundings of the vehicle (1 ) descriptive environment map (5) from the measurement data, the measurement data in the environment map being spatially specified in relation to the vehicle (1), - evaluating the at least one environment map (5) by the computing device (4), the environment map (5) is fed to a folding neural network, the neural network classifying and localizing existing parking spaces (9) from the environment map (5) in the vicinity of the vehicle (1), the neural network using regression to determine the relative arrangement of the parking spaces (9) to the Vehicle (1) is determined, and generating the parking information from the classified and localized parking spaces (9) and their relative arrangement.

Description

Die Erfindung betrifft ein Verfahren zum Ermitteln einer wenigstens eine Parklücke beschreibenden Parkinformation mit einer Sensoreinrichtung eines Fahrzeugs, wobei die Sensoreinrichtung wenigstens einen Umfeldsensor und eine Recheneinrichtung aufweist. Weiterhin betrifft die Erfindung ein Verfahren zum Trainieren eines faltenden neuronalen Netzes, eine Sensoreinrichtung, ein Fahrzeug, ein Computerprogrammprodukt und ein computerlesbares Speichermedium.The invention relates to a method for determining parking information describing at least one parking space using a sensor device of a vehicle, the sensor device having at least one environment sensor and a computing device. The invention further relates to a method for training a convolutional neural network, a sensor device, a vehicle, a computer program product and a computer-readable storage medium.

Moderne Fahrzeuge können mittels Umfeldsensoren Informationen über verschiedene Objekte im Umfeld des Fahrzeugs gewinnen. Diese Objekte können zum Beispiel andere Verkehrsteilnehmer wie sich bewegende oder stationäre Fremdfahrzeuge oder unbewegliche Strukturen wie Bordsteine, Mauern, Markierungen oder dergleichen sein. Die auf diese Weise gewonnenen Information können zur Bereitstellung unterschiedlicher Fahrerassistenzfunktionen herangezogen werden.Modern vehicles can use environmental sensors to obtain information about various objects in the vehicle's surroundings. These objects can be, for example, other road users such as moving or stationary third-party vehicles or immovable structures such as curbs, walls, markings or the like. The information obtained in this way can be used to provide different driver assistance functions.

Beispielsweise können aus einer auf solchen Objektinformationen basierenden Umfeldbeschreibung weitere Informationen hinsichtlich zur Verfügung stehender Parklücken im Umfeld des Fahrzeugs abgeleitet werden. Dazu werden in der Regel Algorithmen verwendet, welche aus den im Umfeld erkannten Objekten und/oder ihrer Anordnung gemäß festgelegter Regeln und Abhängigkeiten freie Parklücken ermitteln. Die Regeln werden dabei beispielsweise durch Suchtabellen und/oder durch einzelne Fallabfragen bzw. if-Bedingungen festgelegt.For example, further information regarding available parking spaces in the area surrounding the vehicle can be derived from an environment description based on such object information. For this purpose, algorithms are generally used which determine free parking spaces from the objects detected in the environment and/or their arrangement according to defined rules and dependencies. The rules are defined, for example, through search tables and/or through individual case queries or if conditions.

Dieses Vorgehen hat den Nachteil, dass das Erstellen und Überprüfen dieser vergleichsweise komplexen und umfangreichen Regeln zeitaufwändig ist und dass grundsätzlich die Parklückenerkennung auf die durch die Regeln abgefragten Szenarien beschränkt ist. Weiterhin sind auch eine Weiterentwicklung der Regeln sowie deren Anpassung an unterschiedliche Fahrzeuge und/oder unterschiedliche Anforderungen an die Parklückenermittlung nur mit großem Aufwand umzusetzen. This approach has the disadvantage that creating and checking these comparatively complex and extensive rules is time-consuming and that parking space detection is basically limited to the scenarios queried by the rules. Furthermore, further development of the rules and their adaptation to different vehicles and/or different requirements for parking space determination can only be implemented with great effort.

Aus anderen Bereichen der Technik sind zur maschinellen Auswertung von Bilddaten bzw. zum computerbasierten Sehen sogenannte Deep-Learning-Methoden, welche eine Auswertung der Bilddaten mittels künstlicher Intelligenz vorsehen, bekannt.So-called deep learning methods, which provide for the evaluation of the image data using artificial intelligence, are known from other areas of technology for the machine evaluation of image data or for computer-based vision.

Ein Beispiel für eine solche Methode ist die im Artikel von Redmon, Joseph, et al. „You only look once: Unified, real-time object detection.“ Proceedings of the IEEE conference on computer vision and pattern recognition (2016) beschriebene „You-Only-Look-Once-Methode“ (auch als YOLO-Methode bezeichnet), welche durch Verwendung eines Rasters in einem einzelnen neuronalen Netz die simultane Klassifizierung und Lokalisierung von Objekten in Bildern ermöglicht. Das neuronale Netz ermittelt dabei den Objekten zugeordnete Klassenwahrscheinlichkeiten sowie die Objekte in dem Bild einfassende, das Objekt lokalisierende Rahmen. Die Rahmen umgeben dabei jeweils ein einzelnes klassifiziertes Objekt, wobei die Kanten der Rahmen jeweils parallel zu den Kanten des rechteckigen, ausgewerteten Bildes verlaufen.An example of such a method is that in the article by Redmon, Joseph, et al. “You only look once: Unified, real-time object detection.” Proceedings of the IEEE conference on computer vision and pattern recognition (2016) “You only look once method” (also referred to as YOLO method), which enables the simultaneous classification and localization of objects in images by using a grid in a single neural network. The neural network determines class probabilities assigned to the objects as well as the frames surrounding the objects in the image and localizing the object. The frames each surround an individual classified object, with the edges of the frames running parallel to the edges of the rectangular, evaluated image.

Der Erfindung liegt die Aufgabe zugrunde, ein verbessertes Verfahren zum Ermitteln einer Parklücke anzugeben, welches insbesondere eine verbesserte Anpassbarkeit der Parklückenerkennung an unterschiedliche Anforderungen sowie eine verbesserte Präzision bei der Parklückenerkennung ermöglicht.The invention is based on the object of specifying an improved method for determining a parking space, which in particular enables improved adaptability of parking space detection to different requirements as well as improved precision in parking space detection.

Diese Aufgabe wird erfindungsgemäß durch ein Verfahren der eingangs genannten Art gelöst, wobei das Verfahren die folgenden Schritte umfasst:

  • - Erfassen von ein Umfeld des Fahrzeugs beschreibenden Messdaten mit dem wenigstens einen Umfeldsensor, wobei die Messdaten einem oder mehreren Objekten im Umfeld des Fahrzeugs zugeordnet sind,
  • - Erstellen wenigstens einer das Umfeld des Fahrzeugs beschreibenden Umfeldkarte aus den Messdaten, wobei die Messdaten in der Umfeldkarte räumlich in Bezug zu dem Fahrzeug angegeben sind,
  • - Auswerten der wenigstens einen Umfeldkarte durch die Recheneinrichtung, wobei die Umfeldkarte einem faltenden neuronalen Netzwerk zugeführt wird, wobei das neuronale Netzwerk aus der Umfeldkarte im Umfeld des Fahrzeugs vorhandene Parklücken klassifiziert und lokalisiert, wobei das neuronale Netz mittels Regression jeweils die relative Anordnung der Parklücken zu dem Fahrzeug ermittelt, und
  • - Erzeugen der Parkinformation aus den klassifizierten und lokalisierten Parklücken sowie ihrer relativen Anordnung.
This object is achieved according to the invention by a method of the type mentioned at the outset, the method comprising the following steps:
  • - Acquiring measurement data describing an environment of the vehicle with the at least one environment sensor, the measurement data being assigned to one or more objects in the area surrounding the vehicle,
  • - Creating at least one environment map describing the environment of the vehicle from the measurement data, the measurement data being specified in the environment map spatially in relation to the vehicle,
  • - Evaluating the at least one environment map by the computing device, the environment map being fed to a convolutional neural network, the neural network classifying and localizing parking spaces present in the area surrounding the vehicle from the environment map, the neural network determining the relative arrangement of the parking spaces by means of regression the vehicle is determined, and
  • - Generating the parking information from the classified and localized parking spaces as well as their relative arrangement.

Das erfindungsgemäße Verfahren geht aus von Messdaten, welche mit einem oder mehreren Umfeldsensoren eines Fahrzeugs ermittelt werden. Die Messdaten beschreiben dabei Objekte im Umfeld des Fahrzeugs. Bei den Objekten kann es sich insbesondere um Fremdfahrzeuge, Infrastrukturobjekte, Gebäude oder Bauwerke sowie um Fahrbahn- und/oder Parkplatzmarkierungen handeln. Insbesondere beschreiben die Messdaten Objekte, welche im Allgemeinen Parklücken begrenzen können. Die Messdaten können mittels einem oder mehrerer unterschiedlicher Typen von Umfeldsensoren erfasst werden.The method according to the invention is based on measurement data which are determined using one or more environmental sensors of a vehicle. The measurement data describes objects in the area surrounding the vehicle. The objects can in particular be third-party vehicles, infrastructure objects, buildings or structures as well as road and/or parking lot markings. In particular, the measurement data describes objects that can generally limit parking spaces. The measurement data can be recorded using one or more different types of environmental sensors.

Die Messdaten können abhängig vom Typ des Umfeldsensors zum Beispiel Messpunkte sein, welchen eine Entfernung zum Fahrzeug zugeordnet ist. Derartige Messpunkte können beispielsweise mittels Ultraschallsensoren, Radarsensoren oder Lidar-Sensoren erzeugt werden. Bei einem als Kamera ausgebildeten Sensor können die Messdaten als Objekt zum Beispiel eine Fahrbahn- oder Parkplatzmarkierung sowie deren Abstand bzw. Anordnung relativ zum Fahrzeug beschreiben.Depending on the type of environment sensor, the measurement data can, for example, be measuring points to which a distance to the vehicle is assigned. Such measuring points can be generated, for example, using ultrasonic sensors, radar sensors or lidar sensors. In the case of a sensor designed as a camera, the measurement data as an object can describe, for example, a road or parking lot marking and its distance or arrangement relative to the vehicle.

Aus den erfassten Messdaten, welche insbesondere das aktuelle Umfeld des Fahrzeugs beschreiben, wird anschließend eine Umfeldkarte erstellt. Dazu werden die Messdaten räumlich in Bezug zu dem Fahrzeug angegeben, beispielsweise in einer rechteckigen Karte, in der das Fahrzeug im Zentrum liegt. Die Messdaten können dabei zum Beispiel in einer zweidimensionalen Karte, welche die sich entlang der Fahrzeuglängsrichtung und der Fahrzeugquerrichtung erstreckende Ebene abbildet, eingetragen werden. Die Umfeldkarte kann zum Beispiel als eine Belegungskarte (engl. occupancy map) erzeugt werden. Die Umfeldkarte kann dabei bevorzugt ein räumliches Raster aufweisen, in welches die Messdaten eingetragen werden bzw. welchem die Messdaten zugeordnet werden.An environment map is then created from the recorded measurement data, which in particular describes the current environment of the vehicle. For this purpose, the measurement data is specified spatially in relation to the vehicle, for example in a rectangular map in which the vehicle is in the center. The measurement data can be entered, for example, in a two-dimensional map, which depicts the plane extending along the vehicle's longitudinal direction and the vehicle's transverse direction. The environment map can be generated, for example, as an occupancy map. The environment map can preferably have a spatial grid into which the measurement data is entered or to which the measurement data is assigned.

Auf diese Weise kann das durch die Messdaten beschriebene Umfeld des Fahrzeugs in der Umfeldkarte abgebildet werden.In this way, the environment of the vehicle described by the measurement data can be mapped on the environment map.

Die Erfindung beruht auf der Erkenntnis, dass eine solche Umfeldkarte als ein Bild aufgefasst werden kann bzw. dass für die Bildauswertung verwendete Deep-Learning-Methoden auch auf eine derartige Umfeldkarte anwendbar sein können. Entsprechend wird erfindungsgemäß zur Auswertung der Umfeldkarte ein faltendes neuronales Netz (convolutional neural network, CNN) verwendet. Dieses ist bevorzugt in der Recheneinrichtung der Sensoreinrichtung hinterlegt, sodass ihm die Umfeldkarte als Eingangsdaten zugeführt werden kann.The invention is based on the knowledge that such an environment map can be viewed as an image or that deep learning methods used for image evaluation can also be applicable to such an environment map. Accordingly, according to the invention, a convolutional neural network (CNN) is used to evaluate the environment map. This is preferably stored in the computing device of the sensor device so that the environment map can be fed to it as input data.

Mithilfe des neuronalen Netzes erfolgt eine Auswertung der Umfeldkarte hinsichtlich in der Umgebung des Fahrzeugs vorhandener Parklücken bzw. in der Umgebung des Fahrzeugs vorhandener, freier Parkplätze. Dazu klassifiziert und lokalisiert das neuronale Netzwerk auf Grundlage der Umfeldkarte Parklücken in der Umgebung des Fahrzeugs. Insbesondere wird zur Auswertung nur ein einzelnes faltendes neuronales Netz verwendet, welches sowohl die Klassifizierung als auch die Lokalisierung der Parklücken durchführt. Mit anderen Worten wird durch das neuronale Netzwerk ein an die YOLO-Methode angelehntes Bildauswerteverfahren an der Umfeldkarte durchgeführt. Es ist möglich, dass dem faltenden neuronalen Netz ein weiteres neuronales Netz zur Auswertung der von dem faltenden neuronalen Netz ermittelten Ausgangsdaten nachgeschaltet ist.With the help of the neural network, the environment map is evaluated with regard to parking spaces in the area surrounding the vehicle or free parking spaces in the area surrounding the vehicle. To do this, the neural network classifies and locates parking spaces in the area surrounding the vehicle based on the surrounding map. In particular, only a single convolutional neural network is used for the evaluation, which carries out both the classification and the localization of the parking spaces. In other words, the neural network carries out an image evaluation process based on the YOLO method on the environment map. It is possible for a further neural network to be connected downstream of the folding neural network for evaluating the output data determined by the folding neural network.

Zusätzlich dazu ermittelt das neuronale Netz mittels Regression jeweils auch die relative Anordnung der Parklücken zu dem Fahrzeug. Mit anderen Worten wird im Vergleich zu der eingangs beschriebenen, klassischen YOLO-Methode die Lokalisierung einer erkannten Parklücke nicht nur durch das Einfügen eines die Parklücke einfassenden, stets entlang der Bildkanten ausgerichteten rechteckigen Rahmens angegeben, sondern es erfolgt stattdessen eine genaue Ermittlung der relativen Position bzw. der relativen Lage sowie der relativen Orientierung der Parklücke zu dem Fahrzeug. Bei einer beispielsweise rechteckigen Parklücke kann somit zum Beispiel ein Winkel ermittelt werden, um den die Parklücke gegenüber dem Fahrzeug gedreht ist. Vorteilhaft kann die Lokalisierung der Parklücke somit unter Berücksichtigung für einen insbesondere assistierten oder zumindest teilautomatisierten Einparkvorgang erforderlicher Informationen erfolgen.In addition, the neural network uses regression to determine the relative arrangement of the parking spaces to the vehicle. In other words, in comparison to the classic YOLO method described at the beginning, the localization of a detected parking space is not only indicated by inserting a rectangular frame that encloses the parking space and is always aligned along the edges of the image, but instead the relative position or .the relative position and the relative orientation of the parking space to the vehicle. In the case of a rectangular parking space, for example, an angle by which the parking space is rotated relative to the vehicle can be determined. The parking space can advantageously be localized taking into account the information required for a particularly assisted or at least partially automated parking process.

Die Klassifizierung der Parklücken kann insbesondere unter Zuordnung einer Klassifizierungswahrscheinlichkeit zu unterschiedlichen Teilabschnitten der Umfeldkarte erfolgen. In anderen Worten kann die Klassifizierung durch Angabe jeweils einer Klassifizierungswahrscheinlichkeit zu unterschiedlichen Teilbereichen der Umfeldkarte erfolgen, wobei die Klassifizierungswahrscheinlichkeit angibt, mit welcher Wahrscheinlichkeit es sich bei dem Teilabschnitt um eine Parklücke, d.h. einen freien Parkplatz für das Fahrzeug, handelt.The parking spaces can be classified in particular by assigning a classification probability to different sections of the surrounding map. In other words, the classification can be carried out by specifying a classification probability for different sub-areas of the environment map, the classification probability indicating the probability with which the sub-section is a parking space, i.e. a free parking space for the vehicle.

Aus den von dem neuronalen Netz klassifizierten Parklücken und ihrer relativen Anordnung wird anschließend eine Parkinformation gebildet. Beispielsweise kann die Parkinformation dabei wenigstens die Parklücken enthalten, deren Klassifizierungswahrscheinlichkeit über einem vorgegebenen Grenzwert liegt, wobei zu diesen Parklücken jeweils auch die relative Anordnung zum Fahrzeug angegeben wird.Parking information is then formed from the parking spaces classified by the neural network and their relative arrangement. For example, the parking information can contain at least the parking spaces whose classification probability is above a predetermined limit value, with the relative arrangement to the vehicle also being specified for these parking spaces.

Die Parkinformation kann anschließend dazu verwendet werden, um einen Aktor des Fahrzeugs und/oder eine Anzeigevorrichtung des Fahrzeugs anzusteuern. Bei dem Aktor des Fahrzeugs kann es sich zum Beispiel um einen zur Querführung und/oder zur Längsführung ausgebildeten Aktor des Fahrzeugs handeln. Der wenigstens eine Aktor kann beispielsweise ein Antriebsmotor des Fahrzeugs und/oder ein Lenkantrieb des Fahrzeugs sein.The parking information can then be used to control an actuator of the vehicle and/or a display device of the vehicle. The actuator of the vehicle can, for example, be an actuator of the vehicle designed for transverse guidance and/or longitudinal guidance. The at least one actuator can be, for example, a drive motor of the vehicle and/or a steering drive of the vehicle.

In Abhängigkeit der Parkinformation kann beispielsweise eine automatisierte oder teilautomatisierte Steuerung eines Einparkvorgangs des Fahrzeugs erfolgen, insbesondere durch Ansteuerung wenigstens eines Aktors des Fahrzeugs. Das Fahrzeug kann sich bei dem Einparkvorgang vorwärts und/oder rückwärts bewegen, zwischen und/oder während diesen Bewegungen Lenkwinkeländerungen eines eingestellten Lenkwinkels vornehmen und insbesondere auch mehrere Bewegungen bzw. Züge in unterschiedliche Richtungen ausführen. Der Einparkvorgang kann dabei insbesondere derart ausgeführt werden, dass das Fahrzeug in wenigstens einer durch die Parkinformation beschriebenen Parklücke positioniert wird.Depending on the parking information, for example, automated or partially automated control of a parking process of the vehicle can take place, in particular by controlling at least one actuator of the vehicle. The vehicle can move forward and/or backward during the parking process, make steering angle changes to a set steering angle between and/or during these movements and, in particular, also carry out several movements or pulls in different directions. The parking process can in particular be carried out in such a way that the vehicle is positioned in at least one parking space described by the parking information.

Zusätzlich oder alternativ zu dem Aktor kann auch wenigstens eine Anzeigevorrichtung des Fahrzeugs angesteuert werden, sodass beispielsweise einem Fahrer des Fahrzeugs die im Umfeld des Fahrzeugs ermittelten Parklücken, beispielsweise durch eine entsprechende bildliche Darstellung, kenntlich gemacht werden können. Die Anzeigevorrichtung kann dabei beispielsweise ein in einem Innenraum des Fahrzeugs angeordnetes Display, ein Heads-Up-Display, ein virtueller Seitenspiegel und/oder Ähnliches sein. Die Darstellung auf der Anzeigevorrichtung kann beispielsweise dazu verwendet werden, um dem Fahrer die Auswahl einer von mehreren ermittelten Parklücken als Zielort eines Einparkvorgangs zu ermöglichen. Zusätzlich oder alternativ dazu können Hilfsmittel wie virtuelle Linien und Markierungen für eine Bewegung des Fahrzeugs in eine ermittelte und/oder ausgewählte Parklücke auf der Anzeigevorrichtung angezeigt werden, die es dem Fahrer ermöglichen, eine Bewegung des Fahrzeugs in diese Parklücke zu steuern.In addition or as an alternative to the actuator, at least one display device of the vehicle can also be controlled, so that, for example, a driver of the vehicle can be made aware of the parking spaces determined in the area surrounding the vehicle, for example by means of a corresponding pictorial representation. The display device can be, for example, a display arranged in an interior of the vehicle, a heads-up display, a virtual side mirror and/or the like. The representation on the display device can be used, for example, to enable the driver to select one of several identified parking spaces as the destination of a parking process. Additionally or alternatively, aids such as virtual lines and markings for moving the vehicle into a determined and/or selected parking space can be displayed on the display device, which enable the driver to control a movement of the vehicle into this parking space.

Bei dem Fahrzeug kann es sich beispielsweise um ein Kraftfahrzeug wie einen Personenkraftwagen oder einen Lastkraftwagen handeln. Weiterhin kann das Fahrzeug auch ein Fahrzeuggespann sein, welches beispielsweise ein Zugfahrzeug sowie einen oder mehrere Anhänger aufweist. Alternativ kann das Verfahren auch bei weiteren Typen von Fahrzeugen eingesetzt werden.The vehicle can be, for example, a motor vehicle such as a passenger car or a truck. Furthermore, the vehicle can also be a vehicle combination, which has, for example, a towing vehicle and one or more trailers. Alternatively, the method can also be used on other types of vehicles.

Die Sensoreinrichtung des Fahrzeugs kann eine oder mehrere Umfeldsensoren aufweisen. Die Umfeldsensoren sind dabei am Fahrzeug angeordnet, sodass sie die unmittelbare Umgebung des Fahrzeugs erfassen können. Die Sensoreinrichtung umfasst weiterhin eine Recheneinrichtung, welche Teil des Fahrzeugs sein kann. Alternativ ist es möglich, dass die Rechenrichtung eine fahrzeugexterne Rechenrichtung ist, welche beispielsweise mit dem wenigstens einen Umfeldsensor über eine insbesondere drahtlose Kommunikationsverbindung kommuniziert. Eine von einer fahrzeugexternen Recheneinrichtung ermittelte Parkinformation kann über die Kommunikationsverbindung auch wieder an das Fahrzeug übermittelt werden, sodass die vorangehend beschriebene Ansteuerung des Aktors und/oder der Anzeigevorrichtung des Fahrzeugs in Abhängigkeit der Parkinformation erfolgen kann.The sensor device of the vehicle can have one or more environment sensors. The surrounding sensors are arranged on the vehicle so that they can record the immediate surroundings of the vehicle. The sensor device further comprises a computing device, which can be part of the vehicle. Alternatively, it is possible for the computing direction to be a computing direction external to the vehicle, which communicates, for example, with the at least one environment sensor via a, in particular, wireless communication connection. Parking information determined by a vehicle-external computing device can also be transmitted back to the vehicle via the communication connection, so that the previously described control of the actuator and/or the display device of the vehicle can take place depending on the parking information.

Das Erstellen der Umfeldkarte aus den Messdaten des wenigstens einen Umfeldsensors kann ebenfalls durch die Recheneinrichtung erfolgen. Alternativ kann dieser Schritt auch von einer weiteren Recheneinrichtung des Fahrzeugs und/oder einer weiteren, fahrzeugexternen Recheneinrichtung vorgenommen werden, wobei die weitere Recheneinrichtung die Umfeldkarte an die Recheneinrichtung übermittelt.The creation of the environment map from the measurement data of the at least one environment sensor can also be done by the computing device. Alternatively, this step can also be carried out by a further computing device of the vehicle and/or a further computing device external to the vehicle, with the further computing device transmitting the environment map to the computing device.

Das zur Auswertung der Umfeldkarte verwendete neuronale Netz ist ein faltendes neuronales Netz (convolutional neural network, CNN), welches in der Recheneinrichtung bzw. einer Speichereinheit der Recheneinrichtung hinterlegt ist. Die Auswertung der Umfeldkarte erfolgt also mittels künstlicher Intelligenz bzw. mittels einer Deep-Learning-Methode. Das faltende neuronale Netz ist dazu eingerichtet bzw. dazu trainiert, aus der Umfeldkarte im Umfeld des Fahrzeugs vorhandene Parklücken zu klassifizieren und zu lokalisieren und mittels Regression jeweils die relative Anordnung der Parklücken zu dem Fahrzeug zu ermitteln. Auf diese Weise kann die Parklückenermittlung auf Grundlage der Umfeldkarte mittels einem durch maschinelles Lernen anpassbaren und verbesserbaren Vorgang erfolgen. Dies ermöglicht es, die Parklückenermittlung durch entsprechendes Trainieren des neuronalen Netzes flexibel an unterschiedliche Szenarien anzupassen. Vorteilhaft wird so eine einfach umsetzbare Anpassungsmöglichkeit der Parklückenermittlung erreicht.The neural network used to evaluate the environment map is a convolutional neural network (CNN), which is stored in the computing device or a storage unit of the computing device. The environment map is evaluated using artificial intelligence or a deep learning method. The folding neural network is set up or trained to classify and locate existing parking spaces in the area surrounding the vehicle from the map of the surroundings and to use regression to determine the relative arrangement of the parking spaces to the vehicle. In this way, the parking space can be determined based on the surrounding map using a process that can be adapted and improved using machine learning. This makes it possible to flexibly adapt the parking space determination to different scenarios by appropriately training the neural network fit. This advantageously provides an easy-to-implement option for adapting the parking space determination.

Im Sinne der Erfindung bezeichnet der Begriff „maschinelles Lernen“ (ML) die Verwendung von Algorithmen zur Analyse von Trainingsdaten, zum Lernen aus diesen Trainingsdaten und zur anschließenden Bestimmung oder Vorhersage einer zunächst unbekannten Eigenschaft von auszuwertenden Eingangsdaten. In diesem Zusammenhang können sowohl kontrolliertes Lernen als auch unkontrolliertes Lernen eingesetzt werden. Unter anderem kann die Kennzeichnungsstrategie oder die Kennzeichnung von Trainingsdaten für deren Analyse von entscheidender Bedeutung sein.For the purposes of the invention, the term “machine learning” (ML) refers to the use of algorithms for analyzing training data, learning from this training data and then determining or predicting an initially unknown property of input data to be evaluated. Both controlled learning and uncontrolled learning can be used in this context. Among other things, the labeling strategy or the labeling of training data can be crucial for its analysis.

Der Begriff „deep learning“ (DL) im Sinne der Erfindung umfasst eine Kaskade aus mehreren Schichten nichtlinearer Verarbeitungseinheiten (meist künstliche neuronale Netze) zur Extraktion und Transformation von Merkmalen (oder zur Extraktion und Transformation von Parametern). Der Begriff „künstliches neuronales Netz“ (ANN) oder „faltendes neuronales Netz“ (CNN) umfasst Netze künstlicher Neuronen, die abstrakt wie in einem Nervensystem eines Lebewesens in Bezug auf die Informationsverarbeitung miteinander verbunden sind. Die Neuronen können als Knoten und deren Verbindungen als Kanten in einem Diagramm dargestellt werden. Die hinterste (Knoten-)Ebene des Netzwerks wird als Ausgabeschicht bezeichnet und die „unsichtbaren“ (Knoten-)Ebenen, die sich vorne befinden, werden als versteckte Ebenen bezeichnet.The term “deep learning” (DL) in the sense of the invention includes a cascade of several layers of nonlinear processing units (usually artificial neural networks) for the extraction and transformation of features (or for the extraction and transformation of parameters). The term “artificial neural network” (ANN) or “convolutional neural network” (CNN) includes networks of artificial neurons that are connected to each other in the abstract, as in a nervous system of a living being, in terms of information processing. The neurons can be represented as nodes and their connections as edges in a diagram. The backmost (node) layer of the network is called the output layer and the “invisible” (node) layers that are at the front are called hidden layers.

Derartige künstliche neuronale Netze können vom Aufbau einschichtig (eine Ausgabeschicht), zweischichtig (eine Ausgabeschicht und eine verdeckte Schicht zur Verbesserung der Abstraktion) oder mehr-schichtig (mindestens eine Ausgabeschicht sowie mehrere verdeckte Schichten zur Verbesserung der Abstraktion) sein. Zudem können diese in Hinblick auf ihre Datenübertragung vorwärtsgerichtet (feedforward) und/oder mit rückwärtsgerichteten Kanten (rekurrente Verbindungen) ausgestaltet sein (Rückkopplung; Feedbacknetz).Such artificial neural networks can be single-layer (one output layer), two-layer (one output layer and one hidden layer to improve abstraction) or multi-layer (at least one output layer and several hidden layers to improve abstraction). In addition, with regard to their data transmission, these can be designed to be forward-facing (feedforward) and/or with backward-facing edges (recurrent connections) (feedback; feedback network).

Im Sinne der Erfindung bezeichnet der Begriff „computerimplementiertes Verfahren“ einen Ablaufplan, der auf der Grundlage eines Datenprozessors realisiert und durchgeführt werden kann. Der Datenprozessor, z.B. ein Computer, ein Computernetzwerk oder ein anderes programmierbares Gerät, kann Daten mittels programmierbarer Berechnungsregeln verarbeiten. In Bezug auf die Methode können wesentliche Eigenschaften realisiert werden, z.B. durch ein neues Programm, neue Programme, Algorithmen oder Ähnliches. For the purposes of the invention, the term “computer-implemented method” refers to a flowchart that can be implemented and carried out on the basis of a data processor. The data processor, e.g. a computer, a computer network or other programmable device, can process data using programmable calculation rules. With regard to the method, essential properties can be realized, e.g. through a new program, new programs, algorithms or similar.

Erfindungsgemäß kann vorgesehen sein, dass die Umfeldkarte ein Kartenraster enthält und die Messdaten den Zellen des Kartenrasters zugeordnet werden, wobei für jede Zelle die Anzahl von der Zelle zugeordneten Messpunkten der Messdaten, die Höhe eines von den der Zelle zugeordneten Messdaten beschriebenen Objekts, der Typ eines von den der Zelle zugeordneten Messdaten beschriebenen Objekts und/oder wenigstens eine Signaleigenschaft von der Zelle zugeordneten Messdaten angegeben wird.According to the invention, it can be provided that the environment map contains a map grid and the measurement data are assigned to the cells of the map grid, with for each cell the number of measurement points of the measurement data assigned to the cell, the height of an object described by the measurement data assigned to the cell, the type of of the object described by the measurement data assigned to the cell and / or at least one signal property is specified by the measurement data assigned to the cell.

Beispielsweise können bei Messdaten, welche von einem Sensortyp stammen, der reflektierte Echos von ausgesendeten Signalen auswertet, als Signaleigenschaften jeweils die Anzahl der von einem Objekt aus der Zelle reflektierten Echos gespeichert werden. Bei einem Sensor dieses Typs kann es sich zum Beispiel um einen Ultraschallsensor, einen Radarsensor oder einen Lidarsensor handeln. Die Echos können dabei insbesondere jeweils einen Messpunkt darstellen. Ferner ist es möglich, dass aus den Echos bzw. Messpunkten von derartigen Sensoren auch eine Information über die Höhe des Objekts, an dem das Echo reflektiert wurde, bestimmbar ist. Eine diese Höhe des Objekts beschriebene Höheninformation kann für jeden Messpunkt oder über mehrere Messpunkte gemittelt ebenfalls den einzelnen Zellen des Kartenrasters der Umfeldkarte zugeordnet werden.For example, for measurement data that comes from a type of sensor that evaluates reflected echoes of emitted signals, the number of echoes reflected from an object in the cell can be stored as signal properties. A sensor of this type can be, for example, an ultrasonic sensor, a radar sensor or a lidar sensor. The echoes can in particular each represent a measuring point. Furthermore, it is possible that information about the height of the object on which the echo was reflected can also be determined from the echoes or measuring points from such sensors. Height information describing this height of the object can also be assigned to the individual cells of the map grid of the surrounding map for each measuring point or averaged over several measuring points.

Als Signaleigenschaft kann beispielsweise die Intensität von der Zelle zugeordneten Echos bzw. Messpunkten in der Umfeldkarte hinterlegt werden. Die Intensität kann dabei für die einzelnen Messpunkte oder gemittelt angegeben werden. Je nach Sensortyp können auch weitere Eigenschaften der Messdaten, insbesondere Eigenschaften, welche Rückschlüsse auf einen Objekttyp und/oder eine Detektionsgüte ermöglichen, in der Umfeldkarte eingetragen werden.For example, the intensity of the echoes or measuring points assigned to the cell can be stored in the environment map as a signal property. The intensity can be specified for the individual measuring points or averaged. Depending on the sensor type, further properties of the measurement data, in particular properties that enable conclusions to be drawn about an object type and/or a detection quality, can also be entered in the environment map.

Weiterhin kann auch der Typ eines durch die Messdaten für die jeweilige Zelle beschriebenen Objekts in der Umfeldkarte angegeben bzw. den einzelnen Zellen zugeordnet werden. Der Typ eines Objekts kann aus den Messdaten, beispielsweise aus über eine Umfeldkamera gewonnenen Messdaten, ermittelt werden. Auf diese Weise können auch Objekte, welche über Ultraschall-, Radar- oder Lidarsensoren nicht oder nur schlecht erfassbar sind, wie zum Beispiel Fahrbahn- oder Parkplatzmarkierungen, in der Umfeldkarte eingetragen werden.Furthermore, the type of an object described by the measurement data for the respective cell can also be specified in the environment map or assigned to the individual cells. The type of an object can be determined from the measurement data, for example from measurement data obtained via an environmental camera. In this way, objects that cannot or only have ultrasonic, radar or lidar sensors can also be detected that are difficult to detect, such as road or parking lot markings, must be entered into the area map.

Diese Informationen werden dabei insbesondere denjenigen Zellen zugeordnet, deren Position mit der über die Sensoreinrichtung ermittelten Objektposition entspricht. Insbesondere können Zellen der Umfeldkarte, welche einem nicht von einem Objekt blockiertem Raumabschnitt im Umfeld des Fahrzeugs entsprechen, keine Messdaten zugeordnet werden, sodass diese frei bleiben.This information is assigned in particular to those cells whose position corresponds to the object position determined via the sensor device. In particular, no measurement data can be assigned to cells of the environment map that correspond to a section of space in the area surrounding the vehicle that is not blocked by an object, so that they remain free.

Erfindungsgemäß kann vorgesehen sein, dass das neuronale Netz dazu eingerichtet ist, die Umfeldkarte mit einem mehrere Zellen umfassenden Auswertungsraster zu überlagern, wobei jeder Zelle wenigstens ein Rahmen zugewiesen ist, wobei in der Parkinformation für jeden der Rahmen eine Klassifizierung als Parklücke und/oder eine Orientierung einer durch die Messdaten beschriebenen und dem Rahmen zugeordneten Parklücke relativ zu dem Fahrzeug angegeben wird.According to the invention, it can be provided that the neural network is set up to overlay the environment map with an evaluation grid comprising several cells, with each cell being assigned at least one frame, with a classification as a parking space and / or an orientation for each of the frames in the parking information a parking space described by the measurement data and assigned to the frame is specified relative to the vehicle.

Der Rahmen, welcher auch als Box bezeichnet werden kann, weist dabei insbesondere eine rechteckige Form auf. Es ist möglich, dass die Rahmen mehrerer Zellen des Auswertungsrasters jeweils bezüglich der Zellen gleich positioniert und/oder ausgerichtet sind. Die Rahmen stellen jeweils Initialannahmen für mögliche Parklücken dar, welchen durch das neuronale Netz jeweils eine Klassifizierungsangabe, zum Beispiel eine Klassifizierungswahrscheinlichkeit, für eine Klassifizierung als Parklücke zugeordnet werden kann. Dies ermöglicht ebenfalls eine zumindest grundlegende Lokalisierung möglicher Parklücken in der Umfeldkarte. Ferner können zumindest für als Parklücken klassifizierte Rahmen weiterhin zusätzliche Eigenschaften, welche die genaue Positionierung und Orientierung der Parklücke und/oder deren jeweilige Breite und Länge beschrieben, mittels Regression durch das neuronale Netzwerk ermittelt werden.The frame, which can also be referred to as a box, has in particular a rectangular shape. It is possible for the frames of several cells of the evaluation grid to be positioned and/or aligned in the same way with respect to the cells. The frames each represent initial assumptions for possible parking spaces, to which a classification information, for example a classification probability, for classification as a parking space can be assigned by the neural network. This also enables at least a basic localization of possible parking spaces in the surrounding map. Furthermore, at least for frames classified as parking spaces, additional properties that describe the exact positioning and orientation of the parking space and/or their respective width and length can be determined by means of regression by the neural network.

In einer bevorzugten Ausgestaltung der Erfindung kann vorgesehen sein, dass ein Auswertungsraster verwendet wird, in dem jeder Zelle mehrere unterschiedlich positionierte und/oder unterschiedlich orientierte Rahmen zugeordnet sind. Die Rahmen können dabei beispielsweise zwei um 90° gegeneinander verdreht angeordnete, rechteckige Rahmen sein. Dies vereinfacht die Ermittlung der relativen Ausrichtung der Parklücke zum Fahrzeug, da initial von dem Rahmen ausgegangen werden kann, welcher bereits die größere Übereinstimmung mit einer durch die Umfeldkarte beschriebenen Parklücke bzw. die höhere Klassifizierungswahrscheinlichkeit aufweist. Es ist auch möglich, dass jede Zelle des Auswertungsraters mehr als zwei Rahmen enthält und/oder dass diese in einer anderen Weise zueinander orientiert sind. Durch die Rahmen kann die Orientierung der Parklücke ermittelt werden bzw. es können durch mehrere unterschiedlich positionierte und/oder unterschiedlich orientierte Rahmen Lokalisierungs- und/oder Orientierungsparameter ermittelt werden. Je mehr Rahmen dabei herangezogen werden, desto genauer können die Lokalisierung und die Ermittlung der relativen Anordnung der Parklücke in Bezug zu dem Fahrzeug erfolgen.In a preferred embodiment of the invention, it can be provided that an evaluation grid is used in which several differently positioned and/or differently oriented frames are assigned to each cell. The frames can, for example, be two rectangular frames arranged rotated by 90° relative to one another. This simplifies the determination of the relative alignment of the parking space to the vehicle, since it can initially be assumed that the frame already corresponds more closely to a parking space described by the surrounding map or has a higher probability of classification. It is also possible that each cell of the evaluation rater contains more than two frames and/or that they are oriented in a different way to one another. The orientation of the parking space can be determined by the frames or localization and/or orientation parameters can be determined by several differently positioned and/or differently oriented frames. The more frames are used, the more precisely the localization and determination of the relative arrangement of the parking space in relation to the vehicle can be carried out.

Erfindungsgemäß kann vorgesehen sein, dass die Parkinformation für zumindest einen Teil der klassifizierten Parklücken zusätzlich eine Positionsinformation enthält, wobei die Positionsinformation eine der jeweiligen Parklücke zugeordnete und innerhalb der Parklücke liegende Zielposition für das Fahrzeug beschreibt. Durch die Positionsinformation kann berücksichtigt werden, dass die Parklücke in der Regel größer ist, d.h. mehr Parkfläche bietet, als von dem Fahrzeug nach dem Einparken eingenommen wird. Die Zielposition kann daher insbesondere vollständig innerhalb der Parklücke liegen und dabei beispielsweise zu den Rändern bzw. Kanten der Parklücke einen vorgegebenen Sicherheitsabstand einhalten. Die Zielposition kann zum Beispiel ebenfalls durch ein Rechteck beschrieben werden, welches eine geringere Kantenlänge als die Parklücke aufweist und/oder gegenüber der Parklücke um einen Winkel verdreht ist. Vorteilhaft kann die Positionsinformation ebenfalls mithilfe des faltenden neuronalen Netzes, insbesondere ebenfalls mittels Regression, ermittelt werden.According to the invention, it can be provided that the parking information for at least some of the classified parking spaces additionally contains position information, the position information describing a target position for the vehicle that is assigned to the respective parking space and lies within the parking space. The position information can be used to take into account that the parking space is generally larger, i.e. offers more parking space than is occupied by the vehicle after parking. The target position can therefore in particular lie completely within the parking space and, for example, maintain a predetermined safety distance from the edges or edges of the parking space. The target position can also be described, for example, by a rectangle which has a shorter edge length than the parking space and/or is rotated at an angle relative to the parking space. The position information can also advantageously be determined using the convolutional neural network, in particular also using regression.

In einer bevorzugten Ausgestaltung der Erfindung kann vorgesehen sein, dass die Klassifizierung der Parklücke eine Klassifizierung als Querparklücke und als Längsparklücke umfasst. Neben der Auswertung der Umfeldkarte kann auch die Ermittlung der relativen Anordnung einer Parklücke zum Fahrzeug vorteilhaft dazu verwendet werden, um eine Parklücke als Querparklücke und/oder als Längsparklücke zu klassifizieren. Dabei beschreibt eine Längsparklücke eine Parklücke, in die längs zu Fahrtrichtung einer Straße, auf der sich das Fahrzeug befindet, geparkt werden kann. Entsprechend bezeichnet eine Querparklücke, eine Parklücke, in welcher das Fahrzeug quer zu Fahrtrichtung einer Straße, auf der sich das Fahrzeug befindet, geparkt werden kann. Eine Unterscheidung zwischen einer Querparklücke und einer Längsparklücke kann zum Beispiel durch das Bereitstellen zweier rechteckiger und gegeneinander um 90° verdrehter Rahmen im Auswerteraster erfolgen.In a preferred embodiment of the invention it can be provided that the classification of the parking space includes a classification as a perpendicular parking space and as a parallel parking space. In addition to evaluating the environment map, the determination of the relative arrangement of a parking space to the vehicle can also be advantageously used to classify a parking space as a perpendicular parking space and/or as a parallel parking space. A parallel parking space describes a parking space in which you can park alongside the direction of travel of a street on which the vehicle is located. Accordingly, a transverse parking space refers to a parking space in which the vehicle can be parked perpendicular to the direction of travel of a street on which the vehicle is located. A distinction between a perpendicular parking space and a parallel parking space can be made, for example, by providing two rectangular frames rotated by 90° relative to each other in the evaluation grid.

In einer bevorzugten Ausgestaltung der Erfindung kann vorgesehen sein, dass eine Sensoreinrichtung verwendet wird, welche als wenigstens einen Umfeldsensor wenigstens einen Ultraschallsensor, wenigstens einen Lidarsensor, wenigstens einen Radarsensor und/oder wenigstens eine Umfeldkamera umfasst. Die Sensoreirichtung kann insbesondere mehrere der vorgenannten Sensortypen und/oder Kombinationen der vorgenannten Sensortypen umfassen. Die jeweiligen Messdaten von verschiedenen Sensoren können insbesondere in derselben Umfeldkarte eingetragen bzw. zusammengeführt werden.In a preferred embodiment of the invention, it can be provided that a sensor device is used which comprises at least one ultrasonic sensor, at least one lidar sensor, at least one radar sensor and/or at least one surroundings camera as at least one environment sensor. The sensor device can in particular comprise several of the aforementioned sensor types and/or combinations of the aforementioned sensor types. The respective measurement data from different sensors can in particular be entered or merged into the same environment map.

Weiterhin betrifft die Erfindung ein Verfahren zum Trainieren eines faltenden neuronalen Netzes, umfassend die Schritte:

  • - Bereitstellen wenigstens eines Trainingsdatensatzes umfassend mehrere jeweils das Umfeld des Fahrzeugs beschreibende Trainings-Umfeldkarten aus Trainings-Messdaten, wobei die Trainings-Messdaten in der Trainings-Umfeldkarte räumlich in Bezug zu einem Fahrzeug angegeben sind,
  • - Zuweisen einer wenigstens eine Parklücke in dem Umfeld des Fahrzeugs beschreibenden Grundwahrheit jeder der Trainings-Umfeldkarten, wobei die Grundwahrheit zumindest einen Abschnitt der Trainings-Umfeldkarte als eine Parklücke klassifiziert und lokalisiert, wobei die Grundwahrheit die relative Orientierung der Parklücke zu dem Fahrzeug angibt,
  • - Überlagern der Trainings-Umfeldkarten jeweils mit einem mehrere Zellen umfassenden Auswertungsraster, wobei jeder Zelle des Auswertungsrasters wenigstens ein Rahmen zugewiesen ist,
  • - Ermitteln des jeweiligen Rahmens mit dem größten Überlapp zu der wenigstens einen, durch die Grundwahrheit beschriebenen Parklücke, und
  • - Optimieren des neuronalen Netzes hinsichtlich einer Übereinstimmung in der relativen Anordnung zwischen dem jeweiligen Rahmen mit dem größten Überlapp und der durch die Grundwahrheit beschriebenen Parklücke.
The invention further relates to a method for training a convolutional neural network, comprising the steps:
  • - Providing at least one training data set comprising several training environment maps from training measurement data, each describing the environment of the vehicle, the training measurement data being specified spatially in relation to a vehicle in the training environment map,
  • - Assigning a ground truth describing at least one parking space in the area surrounding the vehicle to each of the training environment maps, the ground truth classifying and localizing at least a section of the training environment map as a parking space, the ground truth indicating the relative orientation of the parking space to the vehicle,
  • - Overlaying the training environment maps with an evaluation grid comprising several cells, with at least one frame being assigned to each cell of the evaluation grid,
  • - Determining the respective frame with the largest overlap to the at least one parking space described by the ground truth, and
  • - Optimize the neural network with regard to a match in the relative arrangement between the respective frame with the largest overlap and the parking space described by the ground truth.

Das erfindungsgemäße Verfahren zum Trainieren eines faltenden neuronalen Netzes kann insbesondere zum Trainieren eines in einem erfindungsgemäßen Verfahren zum Ermitteln einer wenigstens eine Parklücke beschreibenden Parkinformation eingesetzten neuronalen Netz verwendet werden. Durch das Training können die internen Parameter des neuronalen Netzes angepasst werden, sodass dieses für die Auswertung der aus den Messdaten erstellten Umfeldkarten gemäß dem erfindungsgemäßen Verfahren zum Ermitteln einer wenigstens eine Parklücke beschreibenden Parkinformation eingerichtet bzw. ausgebildet werden kann.The method according to the invention for training a folding neural network can be used in particular for training a neural network used in a method according to the invention for determining parking information describing at least one parking space. Through the training, the internal parameters of the neural network can be adjusted so that it can be set up or trained for the evaluation of the environment maps created from the measurement data according to the method according to the invention for determining parking information describing at least one parking space.

Das Erstellen der Trainings-Umfeldkarten aus den Trainings-Messdaten erfolgt insbesondere analog zu dem Erstellen der Umfeldkarten aus den Messdaten, so wie es vorangehend beschrieben wurde. Die Trainings-Messdaten sind in den Trainings-Umfeldkarte jeweils in Bezug zu der Position eines Fahrzeugs angegeben. Die Trainings-Messdaten können beispielsweise mittels einer wenigstens einen Umfeldsensor umfassenden Sensoreinrichtung eines Fahrzeugs zu einem früheren Zeitpunkt ermittelt worden sein und anschließend für das Training herangezogen werden. Alternativ können auch auf andere Weise erstellte und/oder berechnete Trainings-Messdaten verwendet werden.The creation of the training environment maps from the training measurement data is carried out in particular analogous to the creation of the environment maps from the measurement data, as described above. The training measurement data are indicated in the training environment map in relation to the position of a vehicle. The training measurement data can, for example, have been determined at an earlier point in time by means of a sensor device of a vehicle comprising at least one environment sensor and can then be used for training. Alternatively, training measurement data created and/or calculated in a different way can also be used.

Den Trainings-Umfeldkarten wird anschließend jeweils eine Grundwahrheit zugewiesen, wobei die Grundwahrheit eine oder mehrere Parklücken in der Umfeldkarte beschreibt. Zusätzlich gibt die Grundwahrheit auch den Ort für die Lokalisierung der Parklücke sowie die relative Orientierung der Parklücke zu dem in der Umfeldkarte beschriebenen Fahrzeug an. Die Grundwahrheit stellt dabei das Ergebnis dar, auf das die Auswertung des neuronalen Netzes beim Training hin optimiert wird.A ground truth is then assigned to each of the training environment maps, with the ground truth describing one or more parking spaces in the environment map. In addition, the ground truth also indicates the location for locating the parking space and the relative orientation of the parking space to the vehicle described in the surrounding map. The ground truth represents the result to which the evaluation of the neural network is optimized during training.

Die Trainings-Umfeldkarten werden anschließend während des Trainings jeweils mit einem mehrere Zellen umfassenden Auswerteraster, welches in Bezug zu dem Training des neuronalen Netzes auch als Trainings-Auswerteraster bezeichnet werden kann, überlagert. Den Zellen des Auswerterasters ist dabei wenigstens ein Rahmen bzw. wenigstens eine Box zugewiesen. Diese stellen Initial-Annahmen für mögliche Parklücken dar.The training environment maps are then overlaid during training with an evaluation grid comprising several cells, which can also be referred to as a training evaluation grid in relation to the training of the neural network. At least one frame or at least one box is assigned to the cells of the evaluation grid. These represent initial assumptions for possible parking spaces.

Danach wird aus der Mehrzahl an Rahmen im Auswerteraster derjenige Rahmen ausgewählt, der jeweils den größten Überlapp mit einer durch die Grundwahrheit beschriebenen Parklücke hat. Dabei wird insbesondere für jede in der Grundwahrheit beschriebene Parklücke der Rahmen mit dem jeweils größten Überlapp bestimmt. Der Überlapp bzw. die Überlappung kann auch als Intersection Over Union (IoU) bezeichnet werden und gibt an, zu welchem Anteil jeder der Rahmen im Auswerteraster mit einer der durch die Grundwahrheit beschriebenen Parklücken überlappt.The frame that has the largest overlap with a parking space described by the ground truth is then selected from the plurality of frames in the evaluation grid. In particular, the frame with the largest overlap is determined for each parking space described in the ground truth. The overlap can also be referred to as Intersection Over Union (IoU) and indicates the proportion to which each of the frames in the evaluation grid overlaps with one of the parking spaces described by the ground truth.

Nach dem Ermitteln der ein oder mehr Rahmen mit dem jeweils größten Überlapp zu einer oder mehrerer durch die Grundwahrheit beschriebener Parklücken erfolgt eine Optimierung des neuronalen Netzes hinsichtlich einer Übereinstimmung in der relativen Anordnung zwischen dem jeweiligen Rahmen mit dem größten Überlapp und der durch die Grundwahrheit beschriebenen, dem Rahmen zugeordneten Parklücke. Auf diese Weise kann das neuronale Netz effizient für die Erkennung von Parklücken in Umfeldkarten trainiert werden, insbesondere für einen Einsatz in einem erfindungsgemäßen Verfahren zur Ermittlung einer wenigstens eine Parklücke beschreibenden Parkinformation.After determining the one or more frames with the largest overlap to one or more parking spaces described by the ground truth, the neural network is optimized with regard to a match in the relative arrangement between the respective frame with the largest overlap and the one described by the ground truth. parking space assigned to the frame. In this way, the neural network can be trained efficiently for the recognition of parking spaces in maps of the surrounding area, in particular for use in a method according to the invention for determining parking information describing at least one parking space.

Erfindungsgemäß kann vorgesehen sein, dass für das Ermitteln des Überlapps bestimmt wird, in welcher Zelle jeweils der Mittelpunkt der wenigstens einen durch die Grundwahrheit beschriebenen Parklücke liegt, wobei derjenige Rahmen dieser Zelle als Rahmen mit dem größten Überlapp gewählt wird, dessen flächenbezogene Überschneidung mit der durch die Grundwahrheit beschriebenen Parklücke am größten ist. Wenn zunächst ermittelt wird, in welcher Zelle des Auswerterasters der Mittelpunkt der oder einer durch die Grundwahrheit beschriebenen Parklücke liegt, kann die Anzahl der Rahmen, zu der jeweils der Überlapp ermittelt wird, reduziert werden, sodass weniger Berechnungsschritte erforderlich sind und somit ein effizienteres Training möglich ist.According to the invention, it can be provided that, in order to determine the overlap, it is determined in which cell the center of the at least one parking space described by the ground truth lies, with the frame of this cell being selected as the frame with the largest overlap, the area-related overlap of which with that indicated by The parking space described in the basic truth is the largest. If it is first determined in which cell of the evaluation grid the center of the parking space or a parking space described by the ground truth is located, the number of frames for which the overlap is determined can be reduced, so that fewer calculation steps are required and thus more efficient training is possible is.

In einer bevorzugten Ausgestaltung der Erfindung kann vorgesehen sein, dass ein Auswertungsraster verwendet wird, in dem jeder Zelle mehrere unterschiedlich positionierte und/oder unterschiedlich orientierte Rahmen zugeordnet sind und/oder dass die Klassifizierung der Parklücke eine Klassifizierung als Querparklücke und als Längsparklücke umfasst.In a preferred embodiment of the invention, it can be provided that an evaluation grid is used in which several differently positioned and/or differently oriented frames are assigned to each cell and/or that the classification of the parking space includes a classification as a perpendicular parking space and as a parallel parking space.

Analog zu der Ermittlung der wenigstens eine Parklücke beschreibenden Parkinformation können auch beim Training mehrere Rahmen pro Zelle des Auswerterasters verwendet werden. Diese Rahmen können jeweils insbesondere rechteckig sein und an unterschiedlichen Positionen und/oder mit unterschiedlichen Orientierungen zu den Karten einer rechteckigen Zelle des Auswerterasters angeordnet sein. Diese Rahmen können zum Beispiel dafür verwendet werden, eine Unterscheidung zwischen einer Querparklücke und einer Längsparklücke vorzunehmen und somit das neuronale Netz auch hinsichtlich einer entsprechenden Klassifizierung bzw. Unterscheidung zu trainieren.Analogous to the determination of the parking information describing at least one parking space, several frames per cell of the evaluation grid can also be used during training. These frames can in particular be rectangular and arranged at different positions and/or with different orientations to the cards of a rectangular cell of the evaluation grid. These frames can be used, for example, to make a distinction between a perpendicular parking space and a parallel parking space and thus also to train the neural network with regard to a corresponding classification or distinction.

Erfindungsgemäß kann vorgesehen sein, dass die Grundwahrheit für die wenigstens eine durch die Grundwahrheit beschriebene Parklücke zusätzlich eine Positionsinformation enthält, wobei die Positionsinformation eine der jeweiligen Parklücke zugeordnete und innerhalb der Parklücke liegende Zielposition für das Fahrzeug beschreibt, wobei die Optimierung des neuronalen Netzes auch hinsichtlich der Positionsinformationen erfolgt. Auf diese Weise kann erreicht werden, dass ein Training des neuronalen Netzes auch hinsichtlich einer innerhalb der Parklücke liegenden Positionsinformation erfolgt, sodass diese ebenfalls durch das neuronale Netz bestimmt werden kann.According to the invention, it can be provided that the ground truth for the at least one parking space described by the ground truth additionally contains position information, the position information describing a target position for the vehicle assigned to the respective parking space and lying within the parking space, the optimization of the neural network also with regard to Position information is provided. In this way, it can be achieved that the neural network is also trained with regard to position information located within the parking space, so that this can also be determined by the neural network.

Die Erfindung betrifft weiterhin eine Sensoreinrichtung umfassend wenigstens einen Umfeldsensor und eine Recheneinrichtung, wobei die Recheneinrichtung zur Durchführung eines erfindungsgemäßen Verfahrens zum Ermitteln einer wenigstens eine Parklücke beschreibenden Parkinformation eingerichtet ist.The invention further relates to a sensor device comprising at least one environment sensor and a computing device, wherein the computing device is set up to carry out a method according to the invention for determining parking information describing at least one parking space.

Ferner betrifft die Erfindung ein Fahrzeug umfassend wenigstens eine erfindungsgemäße Sensoreinrichtung.The invention further relates to a vehicle comprising at least one sensor device according to the invention.

Die Erfindung betrifft außerdem ein Computerprogrammprodukt umfassend Instruktionen, welche eine Recheneinrichtung dazu veranlassen, ein erfindungsgemäßes Verfahren zum Ermitteln einer wenigstens eine Parklücke beschreibenden Parkinformation auszuführen.The invention also relates to a computer program product comprising instructions which cause a computing device to carry out a method according to the invention for determining parking information describing at least one parking space.

Darüber hinaus betrifft die Erfindung ein computerlesbares Speichermedium umfassend ein erfindungsgemäßes Computerprogrammprodukt. Bei dem computerlesbaren Speichermedium kann es sich zum Beispiel um einen nichttransienten Datenträger, beispielsweise eine CD, eine DVD, eine Diskette, einen Flash-Speicher oder Ähnliches handeln.In addition, the invention relates to a computer-readable storage medium comprising a computer program product according to the invention. The computer-readable storage medium can be, for example, a non-transient data carrier, for example a CD, a DVD, a floppy disk, a flash memory or the like.

Sämtliche vorangehend für das erfindungsgemäße Verfahren zum Ermitteln einer wenigstens eine Parklücke beschreibenden Parkinformation beschriebenen Vorteile und Ausgestaltungen gelten entsprechend auch für das erfindungsgemäße Verfahren zum Trainieren eines faltenden neuronalen Netzes und umgekehrt.All of the advantages and refinements described above for the method according to the invention for determining parking information describing at least one parking space also apply accordingly to the method according to the invention for training a convolutional neural network and vice versa.

Ferner gelten sämtliche in Bezug zu einem der erfindungsgemäßen Verfahren beschriebenen Vorteile und Ausgestaltungen auch entsprechend für die erfindungsgemäße Sensoreinrichtung, das erfindungsgemäße Fahrzeug, das erfindungsgemäße Computerprogrammprodukt sowie das erfindungsgemäße computerlesbare Speichermedium und umgekehrt.Furthermore, all advantages and refinements described in relation to one of the methods according to the invention also apply correspondingly to the sensor device according to the invention, the vehicle according to the invention, the computer program product according to the invention and the computer-readable storage medium according to the invention and vice versa.

Weitere Vorteile und Einzelheiten der Erfindung ergeben sich aus den im Folgenden beschriebenen Ausführungsbeispielen sowie anhand der Zeichnungen. Diese sind schematische Darstellungen und zeigen:

  • 1 ein Ausführungsbeispiel eines erfindungsgemäßen Fahrzeugs umfassend ein Ausführungsbeispiel einer erfindungsgemäßen Sensoreinrichtung,
  • 2 eine Darstellung einer Umfeldkarte zur Erläuterung eines Ausführungsbeispiels eines erfindungsgemäßen Verfahrens zur Ermittlung einer wenigstens eine Parklücke beschreibenden Parkinformation und
  • 3 eine Darstellung einer mit einem Auswerteraster überlagerten Umfeldkarte zur Erläuterung des Ausführungsbeispiels eines erfindungsgemäßen Verfahrens zur Ermittlung einer wenigstens eine Parklücke beschreibenden Parkinformation sowie eines Ausführungsbeispiels zum Trainieren eines neuronalen Netzes.
Further advantages and details of the invention emerge from the exemplary embodiments described below and from the drawings. These are schematic representations and show:
  • 1 an embodiment of a vehicle according to the invention comprising an embodiment of a sensor device according to the invention,
  • 2 a representation of an environment map to explain an exemplary embodiment of a method according to the invention for determining parking information describing at least one parking space and
  • 3 a representation of an environment map superimposed with an evaluation grid to explain the exemplary embodiment of a method according to the invention for determining parking information describing at least one parking space and an exemplary embodiment for training a neural network.

In 1 ist ein Ausführungsbeispiel eines erfindungsgemäßen Fahrzeugs 1 gezeigt. Bei dem Fahrzeug 1 kann es sich beispielsweise um ein Kraftfahrzeug wie einen Personenkraftwagen oder einen Lastkraftwagen handeln. Weiterhin kann das Fahrzeug 1 auch ein Fahrzeuggespann sein, welches beispielsweise ein Zugfahrzeug sowie einen oder mehrere Anhänger aufweist. Alternativ kann das Verfahren auch bei weiteren Typen von Fahrzeugen eingesetzt werden.In 1 an exemplary embodiment of a vehicle 1 according to the invention is shown. The vehicle 1 can be, for example, a motor vehicle such as a passenger car or a truck. Furthermore, the vehicle 1 can also be a vehicle combination, which has, for example, a towing vehicle and one or more trailers. Alternatively, the method can also be used on other types of vehicles.

Das Fahrzeug 1 umfasst eine Sensoreinrichtung 2, welche mehrere Umfeldsensoren 3 sowie eine Recheneinrichtung 4 aufweist. Die Umfeldsensoren 3 der Sensoreinrichtung 2 sind beispielsweise als Ultraschallsensoren ausgeführt. Zusätzlich oder alternativ dazu kann zumindest ein Teil der Umfeldsensoren 3 auch als Umfeldkamera, als Radarsensor und/oder als Lidarsensor ausgebildet sein.The vehicle 1 includes a sensor device 2, which has several environment sensors 3 and a computing device 4. The environment sensors 3 of the sensor device 2 are designed, for example, as ultrasonic sensors. Additionally or alternatively, at least some of the surroundings sensors 3 can also be designed as a surroundings camera, as a radar sensor and/or as a lidar sensor.

Die Rechnereinrichtung 4 der Sensoreinrichtung 2 ist im vorliegenden Ausführungsbeispiel als ein Teil des Fahrzeugs 1 dargestellt. Es ist möglich, dass die Recheneinrichtung 4 in einen der Umfeldsensoren 3 integriert ist oder dass es sich um eine fahrzeugexterne Recheneinrichtung handelt. Eine fahrzeugexterne Recheneinrichtung kann dabei über eine insbesondere drahtlose Kommunikationsverbindung mit den Umfeldsensoren 3 und/oder weiteren Einrichtungen des Fahrzeugs 1 kommunizieren.The computer device 4 of the sensor device 2 is shown as part of the vehicle 1 in the present exemplary embodiment. It is possible that the computing device 4 is integrated into one of the environment sensors 3 or that it is a computing device external to the vehicle. A vehicle-external computing device can communicate with the environment sensors 3 and/or other devices of the vehicle 1 via a particularly wireless communication connection.

Mittels der Umfeldsensoren 3 können Messdaten aus dem Umfeld des Fahrzeugs 1 ermittelt werden. Die Messdaten beschreiben Objekte, welche sich im Umfeld des Fahrzeugs 1 befinden. Bei den Objekten kann es sich beispielsweise um andere Verkehrsteilnehmer wie weitere Fahrzeuge o. ä. handeln. Weiterhin können als Objekte auch unbewegliche Objekte, beispielsweise Infrastrukturobjekte, Teile von Gebäuden o. ä. erfasst werden.Using the surrounding sensors 3, measurement data from the surroundings of the vehicle 1 can be determined. The measurement data describes objects that are in the vicinity of the vehicle 1. The objects can be, for example, other road users such as other vehicles or similar. Furthermore, immovable objects, such as infrastructure objects, parts of buildings or similar, can also be recorded as objects.

Die Recheneinrichtung 4 der Sensoreinrichtung 2 ist dazu ausgebildet, ein Verfahren zum Ermitteln einer wenigstens eine Parklücke im Umfeld des Fahrzeugs 1 beschreibenden Parkinformation durchzuführen. In Abhängigkeit der Parkinformation kann beispielsweise eine automatisierte oder teilautomatisierte Steuerung eines Einparkvorgangs des Fahrzeugs 1 erfolgen, insbesondere durch Ansteuerung wenigstens eines Aktors (nicht dargestellt) des Fahrzeugs 1. Das Fahrzeug 1 kann sich bei dem Einparkvorgang vorwärts und/oder rückwärts bewegen, Lenkbewegungen ausführen und insbesondere auch mehrere Teilbewegungen bzw. Züge ausführen. Der Einparkvorgang kann dabei insbesondere derart ausgeführt werden, dass das Fahrzeug in wenigstens einer durch die Parkinformation beschriebenen Parklücke positioniert wird.The computing device 4 of the sensor device 2 is designed to carry out a method for determining parking information describing at least one parking space in the vicinity of the vehicle 1. Depending on the parking information, for example, an automated or partially automated control of a parking process of the vehicle 1 can take place, in particular by controlling at least one actuator (not shown) of the vehicle 1. The vehicle 1 can move forward and / or backward during the parking process, carry out steering movements and in particular, carry out several partial movements or moves. The parking process can in particular be carried out in such a way that the vehicle is positioned in at least one parking space described by the parking information.

Zusätzlich oder alternativ zu dem Aktor kann auch eine Anzeigevorrichtung (nicht dargestellt) des Fahrzeugs 1 angesteuert werden, sodass beispielsweise einem Fahrer des Fahrzeugs 1 die im Umfeld des Fahrzeugs ermittelten Parklücken, beispielsweise durch eine entsprechende bildliche Darstellung, kenntlich gemacht werden können. Die Anzeigevorrichtung kann dabei beispielsweise ein in einem Innenraum des Fahrzeugs 1 angeordnetes Display, ein Heads-Up-Display, ein virtueller Seitenspiegel oder Ähnliches sein.In addition or as an alternative to the actuator, a display device (not shown) of the vehicle 1 can also be controlled, so that, for example, a driver of the vehicle 1 can be made aware of the parking spaces determined in the area surrounding the vehicle, for example by means of a corresponding pictorial representation. The display device can be, for example, a display arranged in an interior of the vehicle 1, a heads-up display, a virtual side mirror or the like.

Die Darstellung auf der Anzeigevorrichtung kann beispielsweise dazu verwendet werden, um dem Fahrer die Auswahl einer von mehreren ermittelten Parklücken als Zielort eines Einparkvorgangs zu ermöglichen. Zusätzlich oder alternativ dazu können Hilfsmittel für eine Bewegung des Fahrzeugs 1 in eine ermittelte und/oder ausgewählte Parklücke auf der Anzeigevorrichtung angezeigt werden, die es dem Fahrer ermöglichen, das Fahrzeug 1 in diese Parklücke zu bewegen.The representation on the display device can be used, for example, to enable the driver to select one of several identified parking spaces as the destination of a parking process. Additionally or alternatively, aids can be used to move the vehicle 1 into a determined one and/or selected parking space are displayed on the display device, which enable the driver to move the vehicle 1 into this parking space.

Zum Ermitteln der Parkinformation mit der Recheneinrichtung 4 bzw. zum Ermitteln der Parkinformation in einem computerimplementierten Verfahren werden zunächst das Umfeld bzw. die Umgebung des Fahrzeugs 1 beschreibende Messdaten mit einem oder mehreren der Umfeldsensoren 3 ermittelt, wobei die Messdaten einem oder mehreren Objekten im Umfeld des Fahrzeugs 1 zugeordnet sind. Anschließend erfolgt das Erstellen wenigstens einer das Umfeld des Fahrzeugs 1 beschreibenden Umfeldkarte 5 aus den Messdaten, wobei die Messdaten in der Umfeldkarte 5 räumlich in Bezug zu dem Fahrzeug 1 angegeben sind.To determine the parking information with the computing device 4 or to determine the parking information in a computer-implemented method, measurement data describing the surroundings or the surroundings of the vehicle 1 are first determined with one or more of the surroundings sensors 3, the measurement data being assigned to one or more objects in the surroundings of the Vehicle 1 are assigned. At least one environment map 5 describing the environment of the vehicle 1 is then created from the measurement data, the measurement data being indicated spatially in relation to the vehicle 1 in the environment map 5.

In 2 ist ein Ausführungsbeispiel einer solchen Umfeldkarte 5 dargestellt. Die Umfeldkarte 5 ist eine rechteckige Karte, bei der das Fahrzeug 1 in der Mitte angeordnet ist. In der Umfeldkarte 5 sind die Messdaten räumlich in Bezug zu dem Fahrzeug 1 angegeben. Die Messdaten sind vorliegend als Messpunkte 6 dargestellt, welche zum Beispiel durch als Ultraschallsensoren ausgebildete Umfeldsensoren 3 ermittelt werden können. Die Messpunkte 6 der Messdaten beschreiben dabei jeweils ein Signalecho, welches von einem Objekt im Umfeld des Fahrzeugs 1 reflektiert wurde.In 2 an exemplary embodiment of such an environment map 5 is shown. The environment map 5 is a rectangular map in which the vehicle 1 is arranged in the middle. In the environment map 5, the measurement data are given spatially in relation to the vehicle 1. The measurement data are shown here as measurement points 6, which can be determined, for example, by environmental sensors 3 designed as ultrasonic sensors. The measuring points 6 of the measurement data each describe a signal echo that was reflected by an object in the vicinity of the vehicle 1.

Die einzelnen Messpunkte 6 umfassen jeweils eine Entfernungsmessung in Bezug zu dem Fahrzeug 1, welche beispielsweise aus einer Laufzeitmessung erfolgen kann. Zusätzlich kann für jeden der Messpunkte 6 auch eine Richtung bestimmt werden, sodass die den Messpunkte 6 zugeordneten Reflexionsorte bzw. die Objekte in räumlichen Bezug zu dem Fahrzeug 1 gesetzt werden können.The individual measuring points 6 each include a distance measurement in relation to the vehicle 1, which can be carried out, for example, from a transit time measurement. In addition, a direction can also be determined for each of the measuring points 6, so that the reflection locations or the objects assigned to the measuring points 6 can be placed in spatial relation to the vehicle 1.

Die Umfeldkarte 5 umfasst weiterhin ein Kartenraster 7, wobei die Messdaten den einzelnen Zellen 8 des Kartenrasters 7 zugeordnet sind. Für jede der Zellen 8 kann beispielsweise die Anzahl von der Zelle 8 zugeordneten Messpunkten 6 der Messdaten ermittelt und in der Umfeldkarte 5 hinterlegt werden. Weiterhin können zu den einzelnen Zellen 8 auch jeweils die Höhe eines von den der Zelle 8 zugeordneten Messdaten beschriebenen Objekts, der Typ eines solchen Objekts und/oder wenigstens eine weitere Signaleigenschaft der der Zelle zugeordneten Messdaten angegeben werden.The environment map 5 further comprises a map grid 7, with the measurement data being assigned to the individual cells 8 of the map grid 7. For each of the cells 8, for example, the number of measurement points 6 of the measurement data assigned to the cell 8 can be determined and stored in the environment map 5. Furthermore, the height of an object described by the measurement data assigned to the cell 8, the type of such an object and/or at least one further signal property of the measurement data assigned to the cell can also be specified for the individual cells 8.

Bei der Signaleigenschaft kann es sich zum Beispiel um die Intensität der einzelnen Messpunkte 6 handeln. Dabei ist es möglich, dass eine Signaleigenschaft wie die Intensität zum Beispiel gemittelt für alle Messpunkte einer der Zellen 8 angegeben wird. Dies kann entsprechend auch bei Informationen bezüglich der Höhe eines Objekts und/oder des Typs eines Objekts erfolgen..The signal property can be, for example, the intensity of the individual measuring points 6. It is possible for a signal property such as the intensity to be specified, for example averaged for all measuring points of one of the cells 8. This can also be done accordingly for information regarding the height of an object and/or the type of an object.

Neben den Messpunkten 6 von als Ultraschallsensoren ausgebildeten Umfeldsensoren 2 können auch Messpunkte 6 von als Radarsensoren und/oder Lidarsensoren ausgebildeten Umfeldsensoren 3 entsprechend in die Umfeldkarte 5 eingetragen werden. Weiterhin können auch über andere Typen von Sensoren, beispielsweise als Umfeldkameras ausgebildete Umfeldsensoren 3, ermittelte Objekte in der Umfeldkarte 5 eingetragen werden. Auf diese Weise können auch Objekte wie beispielsweise Fahrbahnmarkierungen, Parkplatzmarkierungen oder ähnliches in der Umfeldkarte 5 eingetragen werden.In addition to the measurement points 6 of environment sensors 2 designed as ultrasonic sensors, measurement points 6 of environment sensors 3 designed as radar sensors and / or lidar sensors can also be entered into the environment map 5 accordingly. Furthermore, objects determined via other types of sensors, for example surroundings sensors 3 designed as surroundings cameras, can also be entered in the surroundings map 5. In this way, objects such as road markings, parking lot markings or the like can also be entered in the environment map 5.

Anschließend erfolgt das Auswerten der wenigstens einen Umfeldkarte 5 durch die Recheneinrichtung 4, wobei die Umfeldkarte 5 einem durch die Recheneinrichtung 4 realisierten faltenden neuronalen Netzwerk zugeführt wird, wobei das neuronale Netzwerk aus der Umfeldkarte 5 im Umfeld des Fahrzeugs 1 vorhandene Parklücken 9 klassifiziert und lokalisiert, wobei das neuronale Netz mittels Regression jeweils die relative Anordnung der Parklücken 9 zu dem Fahrzeug 1 ermittelt. Aus den klassifizierten Parklücken 9 und ihrer relativen Anordnung zu dem Fahrzeug 1 erzeugt die Recheneinrichtung 4 oder eine weitere Recheneinrichtung (nicht dargestellt) anschließend die wenigstens eine Parklücke 9 im Umfeld des Fahrzeugs 1 beschreibende Parkinformation. Vorteilhaft kann dabei die Umfeldkarte 5 wie eine zweidimensionale Bilddatei durch das neuronale Netz verarbeitet werden.The at least one environment map 5 is then evaluated by the computing device 4, the environment map 5 being fed to a folding neural network implemented by the computing device 4, the neural network classifying and localizing parking spaces 9 present in the area surrounding the vehicle 1 from the environment map 5, wherein the neural network uses regression to determine the relative arrangement of the parking spaces 9 to the vehicle 1. From the classified parking spaces 9 and their relative arrangement to the vehicle 1, the computing device 4 or another computing device (not shown) then generates the parking information describing at least one parking space 9 in the surroundings of the vehicle 1. Advantageously, the environment map 5 can be processed like a two-dimensional image file by the neural network.

Das neuronale Netz ist dazu eingerichtet ist, die Umfeldkarte 5 mit einem mehrere Zellen 10 umfassenden Auswerteraster 11 zu überlagern, wobei jeder Zelle 10 wenigstens ein Rahmen 12 zugewiesen ist. Eine mit einem Auswerteraster 11 überlagerte Umfeldkarte 5 ist in 3 dargestellt.The neural network is set up to overlay the environment map 5 with an evaluation grid 11 comprising several cells 10, with each cell 10 being assigned at least one frame 12. An environment map 5 overlaid with an evaluation grid 11 is in 3 shown.

Vorliegend umfasst jede Zelle 10 zwei jeweils rechteckige Rahmen 12, 13, welche um 90° verdreht angeordnet sind. Die Rahmen 12, 13 sind bezüglich der Zelle 10 somit unterschiedlich orientiert. Es ist möglich, dass den Zellen 10 jeweils auch noch weitere Rahmen (nicht dargestellt) zugeordnet werden, welche beispielsweise die gleiche Orientierung wie einer der Rahmen 12, 13 aufweisen, jedoch entlang einer der Kanten der Zelle 10 in x-Richtung und/oder in y-Richtung versetzt angeordnet sind.In the present case, each cell 10 comprises two rectangular frames 12, 13, which are arranged rotated by 90°. The frames 12, 13 are therefore oriented differently with respect to the cell 10. It is possible for additional frames (not shown) to be assigned to the cells 10 for example, have the same orientation as one of the frames 12, 13, but are arranged offset along one of the edges of the cell 10 in the x direction and / or in the y direction.

In der Parkinformation wird für jeden der Rahmen 12, 13 aller Zellen 10 des Auswerterasters 11 eine Klassifizierung als Parklücke und/oder eine Orientierung einer durch die Messdaten beschriebenen und dem Rahmen 12, 13 zugeordneten Parklücke 9 relativ zu dem Fahrzeug 1 angegeben. Dies ermöglicht es, dass die Klassifizierung der Parklücke 9 eine Klassifizierung als Querparklücke und als Längsparklücke umfasst. Eine Parklücke 9 kann als solche klassifiziert werden, wenn eine von dem neuronalen Netz ermittelte Klassifizierungswahrscheinlichkeit über einem vorgegebenen Grenzwert liegt. Entsprechend kann eine Parklücke als Längsparklücke oder als Querparklücke klassifiziert werden, wenn die entsprechende, einem der Rahmen 12, 13 zugeordnete Klassifizierungswahrscheinlichkeit über einem vorgegebenen Grenzwert liegt.In the parking information, a classification as a parking space and/or an orientation of a parking space 9 described by the measurement data and assigned to the frame 12, 13 relative to the vehicle 1 is specified for each of the frames 12, 13 of all cells 10 of the evaluation grid 11. This makes it possible for the classification of the parking space 9 to include a classification as a perpendicular parking space and as a parallel parking space. A parking space 9 can be classified as such if a classification probability determined by the neural network is above a predetermined limit value. Accordingly, a parking space can be classified as a parallel parking space or as a perpendicular parking space if the corresponding classification probability assigned to one of the frames 12, 13 is above a predetermined limit value.

Das neuronale Netz ermittelt zumindest für die als Parklücke 9 klassifizierten Rahmen 12, 13 zusätzlich mittels Regression jeweils die relative Anordnung der Parklücke 9 zu dem Fahrzeug 1. Auf diese Weise wird eine genaue Lokalisierung der Parklücke 9 in Bezug zu dem Fahrzeug 1 ermittelt. Ferner können auf diese Weise unterschiedliche Ausrichtungen der Parklücken bzw. unterschiedliche relative Anordnungen zwischen Fahrzeug 1 und einer ermittelten Parklücke 9 berücksichtigt werden.The neural network additionally determines, at least for the frames 12, 13 classified as parking space 9, the relative arrangement of the parking space 9 to the vehicle 1 by means of regression. In this way, an exact localization of the parking space 9 in relation to the vehicle 1 is determined. Furthermore, different orientations of the parking spaces or different relative arrangements between vehicle 1 and a determined parking space 9 can be taken into account in this way.

Die aus der Ausgabe des neuronalen Netzes abgeleitete Parkinformation kann für zumindest einen Teil der erkannten Parklücken 9 zusätzlich eine Positionsinformation enthalten, wobei die Positionsinformation eine der jeweiligen Parklücke 9 zugeordnete und innerhalb der Parklücke 9 liegende Zielposition für das Fahrzeug 1 beschreibt.The parking information derived from the output of the neural network can additionally contain position information for at least some of the recognized parking spaces 9, the position information describing a target position for the vehicle 1 that is assigned to the respective parking space 9 and lies within the parking space 9.

Die erzeugte Parkinformation kann zum Beispiel ein Tensor sein, welcher für jeden der Rahmen 12, 13 angibt, ob es sich um eine Parklücke 9 handelt oder nicht bzw. ob es sich um eine Querparklücke oder eine Längsparklücke handelt. Für jeden als Parklücke 9 klassifizierten Rahmen 12, 13 können weitere Informationen angegeben werden. Für jede Zelle 10 des Auswerterasters 11 kann die Parkinformation dabei beispielsweise einen Vektor ycell enthalten, welcher als y c e l l = [ P 1 b x 1 b y 1 b w 1 b h 1 b θ 1 t x 1 t y 1 t θ 1 C p a r t 1 C p e r 1 C v o i d P 2 ] T

Figure DE102022208049A1_0001
ausgedrückt werden kann. Dabei sind die dem Rahmen 12 zugeordneten Werte beispielsweise mit dem Index „1“ und die dem Rahmen 13 zugeordneten, größtenteils aus Übersichtsgründen nicht dargestellten Werte mit dem Index „2“ gekennzeichnet. Bei den einzelnen Werten bzw. Komponenten des Vektors beschreiben:

  • P: einen Indikator (z.B. 0 oder 1), ob es sich bei dem entsprechenden Rahmen 12, 13 um eine Parklücke 9 handelt,
  • bx, by: die Koordinaten in x-Richtung und y-Richtung eines Mittelpunkts der ermittelten Parklücke 9, zum Beispiel als Prozentangabe bezogen auf die Größe der Zelle 10 ausgehend von der jeweils unteren linken Ecke,
  • bw, bh: die Breite und die Höhe der ermittelten Parklücke 9, angegeben beispielsweise als Prozentangabe in Bezug zu der Breite und der Höhe der Zelle 10 des Auswerterasters 11,
  • be: Winkel bzw. Verdrehung der Parklücke 9 in Bezug zu der Zelle 10,
  • tx, ty: Koordinaten eines Mittelpunkts einer Zielposition innerhalb der ermittelten Parklücke 9, angegeben zum Beispiel als Prozentangabe in Bezug zu der Zelle 10 und relativ zu deren Mittelpunkt,
  • te: Winkel der Zielposition, angegeben zum Beispiel in Bezug zu der ermittelten Parklücke 9.
  • Cpar, Cperp, Cvoid: Die Klassenwahrscheinlichkeiten für das Vorliegen einer Längsparklücke (Cpar), für das Vorliegen einer Querparklücke (Cperp) und für das Vorliegen keiner Parklücke (Cvoid).
The parking information generated can, for example, be a tensor which indicates for each of the frames 12, 13 whether it is a parking space 9 or not or whether it is a perpendicular parking space or a parallel parking space. Further information can be provided for each frame 12, 13 classified as a parking space 9. For each cell 10 of the evaluation grid 11, the parking information can contain, for example, a vector y cell , which can be used as y c e l l = [ P 1 b x 1 b y 1 b w 1 b H 1 b θ 1 t x 1 t y 1 t θ 1 C p a r t 1 C p e r 1 C v O i d P 2 ] T
Figure DE102022208049A1_0001
can be expressed. The values assigned to the frame 12 are marked, for example, with the index “1” and the values assigned to the frame 13, which are largely not shown for reasons of clarity, are marked with the index “2”. Describe the individual values or components of the vector:
  • P: an indicator (e.g. 0 or 1) as to whether the corresponding frame 12, 13 is a parking space 9,
  • b x , b y : the coordinates in the x direction and y direction of a center point of the determined parking space 9, for example as a percentage based on the size of the cell 10 starting from the lower left corner,
  • b w , b h : the width and height of the determined parking space 9, specified, for example, as a percentage in relation to the width and height of cell 10 of the evaluation grid 11,
  • be: angle or rotation of the parking space 9 in relation to the cell 10,
  • t x , t y : coordinates of a center point of a target position within the determined parking space 9, specified for example as a percentage in relation to the cell 10 and relative to its center point,
  • te: Angle of the target position, specified for example in relation to the determined parking space 9.
  • C par , C perp , C void : The class probabilities for the presence of a parallel parking space (C par ), for the presence of a perpendicular parking space (C perp ) and for the existence of no parking space (C void ).

Der Indikator P kann zum Beispiel auf eins gesetzt werden, wenn eine der Wahrscheinlichkeiten Cpar oder Cperp oberhalb eines vorgegebenen Grenzwerts liegt, bzw. auf null gesetzt werden, wenn die Wahrscheinlichkeit Cvoid oberhalb eines vorgegebenen Grenzwerts liegt.The indicator P can, for example, be set to one if one of the probabilities C par or C perp is above a predetermined limit, or set to zero if the probability C void is above a predetermined limit.

Die Angaben tx, ty und tθ bilden eine Positionsinformation, welche die der jeweiligen Parklücke zugeordnete und innerhalb der Parklücke liegende Zielposition für das Fahrzeug 1 beschreibt.The information t x , t y and t θ form position information which describes the target position for the vehicle 1 that is assigned to the respective parking space and lies within the parking space.

Die beispielsweise in Form eines Tensors ausgegebene Parkinformation weist dabei eine Dimensionalität von A × B × (ycell) bzw. von A × B × (n ∗ i) auf,
wobei A und B die Anzahl der Zeilen und Spalten des Auswerterasters darstellen und ihr Produkt somit die Anzahl der Zellen im Auswerteraster angibt und ycell der jeweils einer Zelle zugeordnete Vektor ist, welcher allgemein n ∗ i Komponenten aufweist, wobei n die Anzahl der Rahmen pro Zelle und i die Anzahl der pro Rahmen in der Zelle ermittelten Informationen beschreibt. Im obigen Beispiel für ycell ist n = 2 und i = 12.
The parking information output, for example, in the form of a tensor has a dimensionality of A × B × (y cell ) or A × B × (n ∗ i),
where A and B represent the number of rows and columns of the evaluation grid and their product therefore indicates the number of cells in the evaluation grid and y cell is the vector assigned to a cell, which generally has n ∗ i components, where n is the number of frames per Cell and i describes the number of information determined per frame in the cell. In the example above for y cell , n = 2 and i = 12.

In einem Ausführungsbeispiel für ein Verfahren zum Trainieren des faltenden neuronalen Netzes wird zunächst wenigstens ein Trainingsdatensatz umfassend mehrere jeweils das Umfeld des Fahrzeugs 1 beschreibenden Trainings-Umfeldkarten aus Trainings-Messdaten bereitgestellt. Dabei sind die Messdaten in der Trainings-Umfeldkarte räumlich in Bezug zu einem Fahrzeug 1 angegeben. Das Trainingsverfahren dient insbesondere dazu, das in der Recheneinrichtung 4 realisierte faltende neuronale Netz zur Durchführung des vorangehend beschriebenen Ausführungsbeispiels zu trainieren.In an exemplary embodiment of a method for training the folding neural network, at least one training data set comprising several training environment maps each describing the environment of the vehicle 1 is provided from training measurement data. The measurement data in the training environment map are spatially specified in relation to a vehicle 1. The training method serves in particular to train the convolutional neural network implemented in the computing device 4 to carry out the exemplary embodiment described above.

Jeder der Trainings-Umfeldkarten wird eine wenigstens eine Parklücke 14 in dem Umfeld des Fahrzeugs 1 beschreibende Grundwahrheit zugewiesen, wobei die Grundwahrheit zumindest einen Abschnitt der Trainings-Umfeldkarte als eine Parklücke 14 klassifiziert und lokalisiert. Außerdem gibt die Grundwahrheit die relative Orientierung der Parklücke 14 zu dem Fahrzeug an. In 3 ist eine durch die Grundwahrheit vorgegebene Parklücke 14 dargestellt. Die Trainings-Umfeldkarten entsprechen grundsätzlich den Umfeldkarten 5, so wie sie vorangehend beschrieben wurden.Each of the training environment maps is assigned a ground truth describing at least one parking space 14 in the surroundings of the vehicle 1, the ground truth classifying and localizing at least a section of the training environment map as a parking space 14. In addition, the ground truth indicates the relative orientation of the parking space 14 to the vehicle. In 3 a parking space 14 specified by the ground truth is shown. The training environment maps basically correspond to the environment maps 5, as described above.

Auch beim Training werden die Trainings-Umfeldkarten, wie vorangehend beschrieben wurde und wie in 3 gezeigt ist, jeweils mit einem mehrere Zellen 10 umfassenden Auswerteraster 11 überlagert, wobei jeder der Zellen 10 des Auswerterasters 11 entsprechend wenigstens ein Rahmen 12, 13 zugewiesen ist. Anschließend erfolgt das Ermitteln des jeweiligen Rahmens 12, 13 mit dem größten Überlapp zu der wenigstens einen, durch die Grundwahrheit beschriebenen Parklücke 14. Dann wird das neuronale Netz hinsichtlich einer Übereinstimmung in der relativen Anordnung zwischen dem jeweiligen Rahmen 12, 13 mit dem größten Überlapp und der durch die Grundwahrheit beschriebenen Parklücke 14 optimiert.The training environment maps are also used during training, as described above and as in 3 is shown, each with an evaluation grid 11 comprising several cells 10, each of the cells 10 of the evaluation grid 11 being assigned at least one frame 12, 13. The respective frame 12, 13 with the largest overlap to the at least one parking space 14 described by the ground truth is then determined. The neural network is then checked for a match in the relative arrangement between the respective frame 12, 13 with the largest overlap and the parking space 14 described by the ground truth is optimized.

Für das Ermitteln des Überlapps wird bestimmt, in welcher der Zellen 10 des Auswerterasters 11 jeweils der Mittelpunkt 15 der wenigstens einen durch die Grundwahrheit beschriebenen Parklücke 14 liegt. Dies ist in dem in 3 dargestellten Beispiel die Zelle 10, welche in der zweiten Zeile und der fünften Spalte liegt.To determine the overlap, it is determined in which of the cells 10 of the evaluation grid 11 the center point 15 of the at least one parking space 14 described by the ground truth lies. This is in the in 3 The example shown is cell 10, which is in the second row and the fifth column.

Anschließend wird derjenige Rahmen 12, 13 in dieser Zelle als Rahmen mit dem größten Überlapp gewählt wird, dessen Überschneidung mit der durch die Grundwahrheit beschriebenen Parklücke 14 am größten ist. Zum Ermitteln des jeweiligen Überlapps wird für jeden der Rahmen 12, 13 in der Zelle, in der der Mittelpunkt 15 liegt, jeweils ein Wert für dessen flächenbezogenen Überlapp bzw. dessen Intersection Over Union (IoU) ermittelt.Subsequently, the frame 12, 13 in this cell is selected as the frame with the largest overlap, whose overlap with the parking space 14 described by the ground truth is largest. To determine the respective overlap, a value for its area-related overlap or its Intersection Over Union (IoU) is determined for each of the frames 12, 13 in the cell in which the center 15 lies.

In dem in 3 dargestellten Beispiel ist der Überlapp mit dem vertikal orientierten Rahmen 12 größer, sodass dieser als Ziel der Optimierung des neuronalen Netzwerks gewählt wird. Basierend auf der Wahl des Rahmens 12, 13 und der Anordnung des Fahrzeugs 1 in der Umfeldkarte kann entsprechend ermittelt bzw. trainiert werden, ob es sich um eine Längsparklücke oder, wie vorliegend, um eine Querparklücke handelt.In the in 3 In the example shown, the overlap with the vertically oriented frame 12 is larger, so that this is chosen as the goal of optimizing the neural network. Based on the choice of the frame 12, 13 and the arrangement of the vehicle 1 in the surrounding map, it can be determined or trained accordingly whether it is a parallel parking space or, as in the present case, a perpendicular parking space.

Es ist möglich, dass ein Auswerteraster 11 verwendet wird, in dem jeder Zelle 10 mehr als zwei Rahmen 12, 13 zugeordnet sind. Die mehreren Rahmen 12, 13 können dabei unterschiedlich positioniert und/oder unterschiedlich orientiert sein. Unterschiedliche Abmessungen, wie eine unterschiedliche Breite, eine unterschiedliche Länge, eine unterschiedliche Lage des Mittelpunkts des Rahmens 12 und der Parklücke 14 bezogen auf die Zelle 10 sowie die relative Orientierung (Winkel θ) zwischen Rahmen 12 und der Parklücke 14, welche durch das neuronale Netz ebenfalls mittels Regression ermittelt werden, werden dabei ebenfalls trainiert.It is possible for an evaluation grid 11 to be used in which more than two frames 12, 13 are assigned to each cell 10. The multiple frames 12, 13 can be positioned differently and/or oriented differently. Different dimensions, such as a different width, a different length, a different position of the center of the frame 12 and the parking space 14 with respect to the cell 10 as well as the relative orientation (angle θ) between the frame 12 and the parking space 14, which are determined by the neural network are also determined using regression and are also trained.

Durch die Rahmen 12, 13 kann die Orientierung der Parklücke 14 angenähert werden bzw. es können durch die Verwendung von zwei oder mehreren Rahmen 12, 13 pro Zelle 10 unterschiedlich positionierte und/oder unterschiedlich orientierte Lokalisierungs- und/oder Orientierungsparameter initial vorgegeben werden. Je mehr Rahmen 12, 13 dabei herangezogen werden, desto genauer können die Lokalisierung und die Ermittlung der relativen Anordnung der Parklücke 14 in Bezug zu dem Fahrzeug durch das neuronale Netzwerk erfolgen.The orientation of the parking space 14 can be approximated by the frames 12, 13 or, by using two or more frames 12, 13 per cell 10, differently positioned and/or differently oriented localization and/or orientation parameters can be initially specified. The more frames 12, 13 are used, the more precisely the neural network can localize and determine the relative arrangement of the parking space 14 in relation to the vehicle.

Weiterhin kann die Grundwahrheit für die wenigstens eine Parklücke 14 zusätzlich eine Positionsinformation enthalten, wobei die Positionsinformation eine der jeweiligen Parklücke 14 zugeordnete und innerhalb der Parklücke liegende Zielposition für das Fahrzeug 1 beschreibt, wobei die Optimierung des neuronalen Netzes auch hinsichtlich der Positionsinformationen erfolgt. Dies kann entsprechend durch ein Trainieren der Ermittlung der Parameter tx, ty und tθ erfolgen.Furthermore, the ground truth for the at least one parking space 14 can additionally contain position information, the position information describing a target position for the vehicle 1 that is assigned to the respective parking space 14 and lies within the parking space, the optimization of the neural network also taking place with regard to the position information. This can be done accordingly by training the determination of the parameters tx, ty and tθ.

Das Optimieren des neuronalen Netzes kann mithilfe einer Verlustfunktion erfolgen. Die Verlustfunktion kann dabei für alle Variablen des Vektors ycell bzw. für alle Variablen i, welche in Bezug zu einem der Rahmen 12, 13 ermittelbar sein sollen, Fehlerquadrate minimieren. Zusätzlich oder alternativ dazu kann auch eine Softmax-Funktion verwendet werden oder es können nur die Fehler der Klassenwahrscheinlichkeiten Cpar, Cperp und Cvoid und/oder der Klassifizierungswahrscheinlichkeit Pn minimiert werden.Optimizing the neural network can be done using a loss function. The loss function can minimize error squares for all variables of the vector y cell or for all variables i, which should be able to be determined in relation to one of the frames 12, 13. Additionally or alternatively, a softmax function can also be used or only the errors of the class probabilities Cpar, Cperp and Cvoid and/or the classification probability P n can be minimized.

Ein Beispiel für eine Verlustfunktion ℓ(ŷ,y) ist l ( y ^ , y ) = ( y ^ 1 y 1 ) 2 + ( y ^ 2 y 2 ) 2 + + ( y ^ n y n ) 2 ,   w e n n   y 1 = 1 l ( y ^ , y ) = ( y ^ 1 y 1 ) 2 ,   w e n n   y 1 = 0.

Figure DE102022208049A1_0002
An example of a loss function is ℓ(ŷ,y). l ( y ^ , y ) = ( y ^ 1 y 1 ) 2 + ( y ^ 2 y 2 ) 2 + + ( y ^ n y n ) 2 , w e n n y 1 = 1 l ( y ^ , y ) = ( y ^ 1 y 1 ) 2 , w e n n y 1 = 0.
Figure DE102022208049A1_0002

Wenn y1 = 1 ist, bedeutet dies, dass der dem Index „1“ zugewiesene Rahmen 12 als eine Parklücke klassifiziert wurde. In diesem Fall wird mittels der Verlustfunktion der quadrierte Fehler jeder Variable i d.h. jeder Komponente yn des Vektors ycell berechnet. Wenn y1 = 0 ist, bedeutet dies, dass der dem Index „1“ zugewiesene Rahmen 12 als „keine Parklücke“ klassifiziert wurde, wobei in diesem Fall nur der quadrierte Fehler in dem Indikator bzw. der Klassifizierungswahrscheinlichkeit Pn, also der Komponente y1 des Vektors ycell, minimiert wird.If y 1 = 1, it means that the frame 12 assigned the index “1” has been classified as a parking space. In this case, the loss function is used to calculate the squared error of each variable i, ie each component y n of the vector y cell . If y 1 = 0, this means that the frame 12 assigned to the index "1" was classified as "not a parking space", in which case only the squared error in the indicator or the classification probability P n , i.e. the component y 1 of the vector y cell , is minimized.

Claims (15)

Verfahren zum Ermitteln einer wenigstens eine Parklücke (9) beschreibenden Parkinformation mit einer Sensoreinrichtung (2) eines Fahrzeugs (1), wobei die Sensoreinrichtung (2) wenigstens einen Umfeldsensor (3) und eine Recheneinrichtung (4) aufweist, umfassend die Schritte: - Erfassen von ein Umfeld des Fahrzeugs (1) beschreibenden Messdaten mit dem wenigstens einen Umfeldsensor (1), wobei die Messdaten einem oder mehreren Objekten im Umfeld des Fahrzeugs (1) zugeordnet sind, - Erstellen wenigstens einer das Umfeld des Fahrzeugs (1) beschreibenden Umfeldkarte (5) aus den Messdaten, wobei die Messdaten in der Umfeldkarte räumlich in Bezug zu dem Fahrzeug (1) angegeben sind, - Auswerten der wenigstens einen Umfeldkarte (5) durch die Recheneinrichtung (4), wobei die Umfeldkarte (5) einem faltenden neuronalen Netzwerk zugeführt wird, wobei das neuronale Netzwerk aus der Umfeldkarte (5) im Umfeld des Fahrzeugs (1) vorhandene Parklücken (9) klassifiziert und lokalisiert, wobei das neuronale Netz mittels Regression jeweils die relative Anordnung der Parklücken (9) zu dem Fahrzeug (1) ermittelt, und - Erzeugen der Parkinformation aus den klassifizierten und lokalisierten Parklücken (9) sowie ihrer relativen Anordnung.Method for determining parking information describing at least one parking space (9) using a sensor device (2) of a vehicle (1), the sensor device (2) having at least one environment sensor (3) and a computing device (4), comprising the steps: - Acquiring measurement data describing an environment of the vehicle (1) with the at least one environment sensor (1), the measurement data being assigned to one or more objects in the environment of the vehicle (1), - Creating at least one environment map (5) describing the environment of the vehicle (1) from the measurement data, the measurement data being specified in the environment map spatially in relation to the vehicle (1), - Evaluating the at least one environment map (5) by the computing device (4), the environment map (5) being fed to a folding neural network, the neural network from the environment map (5) identifying parking spaces (9) in the area surrounding the vehicle (1). ) classified and localized, the neural network using regression to determine the relative arrangement of the parking spaces (9) to the vehicle (1), and - Generating the parking information from the classified and localized parking spaces (9) as well as their relative arrangement. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Umfeldkarte (5) ein Kartenraster (7) enthält und die Messdaten den Zellen (8) des Kartenrasters (7) zugeordnet werden, wobei für jede Zelle (8) die Anzahl von der Zelle (8) zugeordneten Messpunkten (6) der Messdaten, die Höhe eines von den der Zelle (8) zugeordneten Messdaten beschriebenen Objekts, der Typ eines von den der Zelle (8) zugeordneten Messdaten beschriebenen Objekts und/oder wenigstens eine Signaleigenschaft von der Zelle (8) zugeordneten Messdaten angegeben wird.Procedure according to Claim 1 , characterized in that the environment map (5) contains a map grid (7) and the measurement data are assigned to the cells (8) of the map grid (7), with the number of measuring points (8) assigned to the cell (8) for each cell (8). 6) the measurement data, the height of an object described by the measurement data assigned to the cell (8), the type of an object described by the measurement data assigned to the cell (8) and / or at least one signal property of the measurement data assigned to the cell (8) is specified . Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass das neuronale Netz dazu eingerichtet ist, die Umfeldkarte (5) mit einem mehrere Zellen (10) umfassenden Auswertungsraster (11) zu überlagern, wobei jeder Zelle (10) wenigstens ein Rahmen (12, 13) zugewiesen ist, wobei in der Parkinformation für jeden der Rahmen (12, 13) eine Klassifizierung als Parklücke und/oder eine Orientierung einer durch die Messdaten beschriebenen und dem Rahmen (12, 13) zugeordneten Parklücke relativ zu dem Fahrzeug (1) angegeben wird.Procedure according to Claim 1 or 2 , characterized in that the neural network is set up to overlay the environment map (5) with an evaluation grid (11) comprising several cells (10), with each cell (10) being assigned at least one frame (12, 13), whereby in the parking information for each of the frames (12, 13) a classification as a parking space and/or an orientation of a parking space described by the measurement data and assigned to the frame (12, 13) is specified relative to the vehicle (1). Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass ein Auswertungsraster (11) verwendet wird, in dem jeder Zelle (10) mehrere unterschiedlich positionierte und/oder unterschiedlich orientierte Rahmen (12, 13) zugeordnet sind.Procedure according to Claim 3 , characterized in that an evaluation grid (11) is used, in which each cell (10) is assigned several differently positioned and/or differently oriented frames (12, 13). Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Parkinformation für zumindest einen Teil der klassifizierten Parklücken (9) zusätzlich eine Positionsinformation enthält, wobei die Positionsinformation eine der jeweiligen Parklücke (9) zugeordnete und innerhalb der Parklücke (9) liegende Zielposition für das Fahrzeug (1) beschreibt.Method according to one of the preceding claims, characterized in that the parking information for at least some of the classified parking spaces (9) additionally contains position information, the position information being a target position for the respective parking space (9) assigned and within the parking space (9). Vehicle (1) describes. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Klassifizierung der Parklücke (9) eine Klassifizierung als Querparklücke und als Längsparklücke umfasst.Method according to one of the preceding claims, characterized in that the classification of the parking space (9) includes a classification as a perpendicular parking space and as a parallel parking space. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass eine Sensoreinrichtung (2) verwendet wird, welche als wenigstens einen Umfeldsensor (3) wenigstens einen Ultraschallsensor, wenigstens einen Lidarsensor, wenigstens einen Radarsensor und/oder wenigstens eine Umfeldkamera umfasst.Method according to one of the preceding claims, characterized in that a sensor device (2) is used, which comprises at least one ultrasonic sensor, at least one lidar sensor, at least one radar sensor and/or at least one environment camera as at least one environment sensor (3). Verfahren zum Trainieren eines faltenden neuronalen Netzes, insbesondere für die Verwendung in einem Verfahren nach einem der vorangehenden Ansprüche, umfassend die Schritte: - Bereitstellen wenigstens eines Trainingsdatensatzes umfassend mehrere jeweils das Umfeld eines Fahrzeugs (1) beschreibende Trainings-Umfeldkarten aus Trainings-Messdaten, wobei die Trainings-Messdaten in der Trainings-Umfeldkarte räumlich in Bezug zu dem Fahrzeug (1) angegeben sind, - Zuweisen einer wenigstens eine Parklücke (14) in dem Umfeld des Fahrzeugs (1) beschreibenden Grundwahrheit jeder der Trainings-Umfeldkarten, wobei die Grundwahrheit zumindest einen Abschnitt der Trainings-Umfeldkarte als eine Parklücke (14) klassifiziert und lokalisiert, wobei die Grundwahrheit die relative Orientierung der Parklücke (14) zu dem Fahrzeug (1) angibt, - Überlagern der Trainings-Umfeldkarten jeweils mit einem mehrere Zellen (10) umfassenden Auswertungsraster (11), wobei jeder Zelle (10) des Auswertungsrasters (11) wenigstens ein Rahmen (12, 13) zugewiesen ist, - Ermitteln des jeweiligen Rahmens (12, 13) mit dem größten Überlapp zu der wenigstens einen, durch die Grundwahrheit beschriebenen Parklücke (14), - Optimieren des neuronalen Netzes hinsichtlich einer Übereinstimmung in der relativen Anordnung zwischen dem jeweiligen Rahmen (12, 13) mit dem größten Überlapp und der durch die Grundwahrheit beschriebenen Parklücke (14).Method for training a convolutional neural network, in particular for use in a method according to one of the preceding claims, comprising the steps: - Providing at least one training data set comprising several training environment maps each describing the environment of a vehicle (1) from training measurement data, the training measurement data being specified in the training environment map spatially in relation to the vehicle (1), - Assigning a ground truth describing at least one parking space (14) in the area surrounding the vehicle (1) to each of the training environment maps, the ground truth classifying and localizing at least a section of the training environment map as a parking space (14), the ground truth being the relative indicates the orientation of the parking space (14) to the vehicle (1), - Overlaying the training environment maps with an evaluation grid (11) comprising several cells (10), with at least one frame (12, 13) being assigned to each cell (10) of the evaluation grid (11), - Determining the respective frame (12, 13) with the largest overlap to the at least one parking space (14) described by the ground truth, - Optimizing the neural network with regard to a match in the relative arrangement between the respective frame (12, 13) with the largest overlap and the parking space (14) described by the ground truth. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass für das Ermitteln des Überlapps bestimmt wird, in welcher Zelle (10) jeweils der Mittelpunkt (15) der wenigstens einen durch die Grundwahrheit beschriebenen Parklücke (14) liegt, wobei derjenige Rahmen (12, 13) dieser Zelle (10) als Rahmen (12, 13) mit dem größten Überlapp gewählt wird, dessen Überschneidung mit der durch die Grundwahrheit beschriebenen Parklücke (14) am größten ist.Procedure according to Claim 8 , characterized in that in order to determine the overlap, it is determined in which cell (10) the center point (15) of the at least one parking space (14) described by the ground truth is located, the frame (12, 13) of this cell (10 ) is chosen as the frame (12, 13) with the largest overlap, whose overlap with the parking space (14) described by the ground truth is largest. Verfahren nach Anspruch 8 oder 9, dadurch gekennzeichnet, dass ein Auswertungsraster (11) verwendet wird, in dem jeder Zelle (10) mehrere unterschiedlich positionierte und/oder unterschiedlich orientierte Rahmen (12, 13) zugeordnet sind und/oder dass die Klassifizierung der durch die Grundwahrheit beschriebenen Parklücke (14) eine Klassifizierung als Querparklücke und als Längsparklücke umfasst.Procedure according to Claim 8 or 9 , characterized in that an evaluation grid (11) is used, in which each cell (10) is assigned several differently positioned and/or differently oriented frames (12, 13) and/or that the classification of the parking space described by the ground truth (14 ) includes a classification as a perpendicular parking space and a parallel parking space. Verfahren nach einem der Ansprüche 8 bis 10, dadurch gekennzeichnet, dass die Grundwahrheit für die wenigstens eine Parklücke (14) zusätzlich eine Positionsinformation enthält, wobei die Positionsinformation eine der jeweiligen Parklücke (14) zugeordnete und innerhalb der Parklücke (14) liegende Zielposition für das Fahrzeug (1) beschreibt, wobei die Optimierung des neuronalen Netzes auch hinsichtlich der Positionsinformationen erfolgt.Procedure according to one of the Claims 8 until 10 , characterized in that the ground truth for the at least one parking space (14) additionally contains position information, the position information describing a target position for the vehicle (1) assigned to the respective parking space (14) and lying within the parking space (14), the Optimization of the neural network also takes place with regard to the position information. Sensoreinrichtung umfassend wenigstens einen Umfeldsensor (3) und eine Recheneinrichtung (4), wobei die Recheneinrichtung (4) zur Durchführung eines Verfahrens nach einem der Ansprüche 1 bis 7 eingerichtet ist.Sensor device comprising at least one environment sensor (3) and a computing device (4), the computing device (4) being used to carry out a method according to one of Claims 1 until 7 is set up. Fahrzeug umfassend wenigstens eine Sensoreinrichtung (2) nach Anspruch 12.Vehicle comprising at least one sensor device (2). Claim 12 . Computerprogrammprodukt umfassend Instruktionen, welche eine Recheneinrichtung (4) dazu veranlassen, ein Verfahren nach einem der Ansprüche 1 bis 7 auszuführen.Computer program product comprising instructions which cause a computing device (4) to carry out a method according to one of the Claims 1 until 7 to carry out. Computerlesbares Speichermedium umfassend ein Computerprogrammprodukt nach Anspruch 14.Computer-readable storage medium comprising a computer program product Claim 14 .
DE102022208049.1A 2022-08-03 2022-08-03 Method for determining a parking space using a convolutional neural network Pending DE102022208049A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102022208049.1A DE102022208049A1 (en) 2022-08-03 2022-08-03 Method for determining a parking space using a convolutional neural network
PCT/DE2023/200153 WO2024027884A1 (en) 2022-08-03 2023-07-25 Method for determining a parking space with the aid of a convolutional neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022208049.1A DE102022208049A1 (en) 2022-08-03 2022-08-03 Method for determining a parking space using a convolutional neural network

Publications (1)

Publication Number Publication Date
DE102022208049A1 true DE102022208049A1 (en) 2024-02-08

Family

ID=87801365

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022208049.1A Pending DE102022208049A1 (en) 2022-08-03 2022-08-03 Method for determining a parking space using a convolutional neural network

Country Status (2)

Country Link
DE (1) DE102022208049A1 (en)
WO (1) WO2024027884A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017130488A1 (en) 2017-12-19 2019-06-19 Valeo Schalter Und Sensoren Gmbh A method for classifying parking spaces in a surrounding area of a vehicle with a neural network
DE102018214915A1 (en) 2018-09-03 2020-03-05 Continental Teves Ag & Co. Ohg System for detecting a parking space in the direction of travel
DE102020211332A1 (en) 2020-09-09 2022-03-10 Volkswagen Aktiengesellschaft Method for determining a parking position for a motor vehicle, driver assistance system for performing such a method, and motor vehicle with a driver assistance system
DE102020131766A1 (en) 2020-12-01 2022-06-02 Bayerische Motoren Werke Aktiengesellschaft Vehicle system and method for determining a parking area for a vehicle

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10984659B2 (en) * 2018-09-13 2021-04-20 Volvo Car Corporation Vehicle parking availability map systems and methods
US11195331B2 (en) * 2019-03-16 2021-12-07 Nvidia Corporation Object detection using skewed polygons suitable for parking space detection

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017130488A1 (en) 2017-12-19 2019-06-19 Valeo Schalter Und Sensoren Gmbh A method for classifying parking spaces in a surrounding area of a vehicle with a neural network
DE102018214915A1 (en) 2018-09-03 2020-03-05 Continental Teves Ag & Co. Ohg System for detecting a parking space in the direction of travel
DE102020211332A1 (en) 2020-09-09 2022-03-10 Volkswagen Aktiengesellschaft Method for determining a parking position for a motor vehicle, driver assistance system for performing such a method, and motor vehicle with a driver assistance system
DE102020131766A1 (en) 2020-12-01 2022-06-02 Bayerische Motoren Werke Aktiengesellschaft Vehicle system and method for determining a parking area for a vehicle

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
REDMON, Joseph [u.a.]: You only look once: Unified, real-time object detection. In: IEEE: Conference on Computer Vision and Pattern Recognition (CVPR) - 27-30 June 2016 - Las Vegas, NV, USA, 2016, S. 779-788. - ISBN 978-1-4673-8851-1 (E); 978-1-4673-8852-8 (P). DOI: 10.1109/CVPR.2016.91. URL: https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=7780460 [abgerufen am 2022-10-12].

Also Published As

Publication number Publication date
WO2024027884A1 (en) 2024-02-08

Similar Documents

Publication Publication Date Title
DE112015001150B4 (en) Method, device and system for supporting platooning
DE102006056408B4 (en) Method for determining a position, device and computer program product
DE102015203016B4 (en) Method and device for optical self-localization of a motor vehicle in an environment
DE102019122826A1 (en) ADAPTIVE VEHICLE LEARNING
DE102018114808A1 (en) Method for the automatic lateral guidance of a following vehicle in a vehicle platoon
DE102020113848A1 (en) ECCENTRICITY FUSION
EP3873784A1 (en) Control system and control method for sampling-based planning of possible trajectories for motor vehicles
WO2018197122A1 (en) Method for automatically producing and updating a dataset for an autonomous vehicle
DE102019133703A1 (en) METHODS AND SYSTEMS FOR PRODUCING AND LOCALIZING A VEHICLE
DE102019114355A1 (en) AUTOCALIBRATION FOR VEHICLE CAMERAS
EP3824247A1 (en) Method and system for determining a position of a vehicle
DE102020127855A1 (en) SAFETY SYSTEM, AUTOMATED DRIVING SYSTEM AND PROCEDURE FOR IT
DE102021213021A1 (en) PARKING ASSISTANCE SYSTEM WITH IMPROVED ESCAPE CONTROL AND METHOD THEREOF
DE102021112616A1 (en) SELF-MONITORED ESTIMATION OF A WATCHED VEHICLE FLOAT
DE102020100022A1 (en) POSITION DETERMINATION TECHNOLOGY
DE102020128978A1 (en) TRAINING DEEP NEURAL NETWORKS WITH SYNTHETIC IMAGES
DE102021124810A1 (en) NEURAL VEHICLE NETWORK
DE102022112478A1 (en) Methods and systems for displaying the driving situation to external users
DE112020002139T5 (en) Vehicle travel control apparatus, vehicle travel control method and computer program product
EP3454084A1 (en) Method for operating a driver assistance system for a motor vehicle using a vector-based and a grid-based map of the environment and driver assistance system
DE102021130693A1 (en) PROCEDURE FOR ARRANGEMENT OF PLATOONING VEHICLES BASED ON VEHICLES' HISTORICAL RADIO PERFORMANCE
WO2020048669A1 (en) Method for determining a lane change indication of a vehicle, computer-readable storage medium, and vehicle
DE102020211971A1 (en) VEHICLE TRAJECTORY PREDICTION USING ROAD TOPOLOGY AND TRAFFIC PARTICIPANT OBJECT STATES
DE102020101832A1 (en) PROCEDURES AND SYSTEMS FOR INTERPRETING TRAFFIC SIGNALS AND OCCURRING SIGNALED INTERSECTIONS
DE102020106680A1 (en) SYSTEM AND METHOD FOR CONTROLLING THE OPERATION OF A DEVICE WITH A STEERABLE OPTICAL SENSOR AND A STEERABLE RADAR UNIT

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed