WO2024027884A1 - Method for determining a parking space with the aid of a convolutional neural network - Google Patents

Method for determining a parking space with the aid of a convolutional neural network Download PDF

Info

Publication number
WO2024027884A1
WO2024027884A1 PCT/DE2023/200153 DE2023200153W WO2024027884A1 WO 2024027884 A1 WO2024027884 A1 WO 2024027884A1 DE 2023200153 W DE2023200153 W DE 2023200153W WO 2024027884 A1 WO2024027884 A1 WO 2024027884A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
parking space
environment
parking
measurement data
Prior art date
Application number
PCT/DE2023/200153
Other languages
German (de)
French (fr)
Inventor
Mohanad Youssef
Original Assignee
Continental Autonomous Mobility Germany GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Continental Autonomous Mobility Germany GmbH filed Critical Continental Autonomous Mobility Germany GmbH
Publication of WO2024027884A1 publication Critical patent/WO2024027884A1/en

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/027Parking aids, e.g. instruction means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/06Automatic manoeuvring for parking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/027Parking aids, e.g. instruction means
    • B62D15/0285Parking performed automatically
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space

Definitions

  • the invention relates to a method for determining parking information describing at least one parking space using a sensor device of a vehicle, the sensor device having at least one environment sensor and a computing device.
  • the invention further relates to a method for training a convolutional neural network, a sensor device, a vehicle, a computer program product and a computer-readable storage medium.
  • Modern vehicles can use environmental sensors to obtain information about various objects in the vehicle's surroundings. These objects can be, for example, other road users such as moving or stationary third-party vehicles or immovable structures such as curbs, walls, markings or the like. The information obtained in this way can be used to provide different driver assistance functions.
  • further information regarding available parking spaces in the area surrounding the vehicle can be derived from an environment description based on such object information.
  • algorithms are generally used which determine free parking spaces from the objects detected in the environment and/or their arrangement according to defined rules and dependencies.
  • the rules are defined, for example, through search tables and/or through individual case queries or if conditions. This approach has the disadvantage that creating and checking these comparatively complex and extensive rules is time-consuming and that parking space detection is basically limited to the scenarios queried by the rules.
  • further development of the rules and their adaptation to different vehicles and/or different requirements for parking space determination can only be implemented with great effort.
  • So-called deep learning methods which provide for the evaluation of the image data using artificial intelligence, are known from other areas of technology for the machine evaluation of image data or for computer-based vision.
  • An example of such a method is that in the article by Redmon, Joseph, et al. "You only look once: Unified, real-time object detection.” Proceedings of the IEEE conference on computer vision and pattern recognition (2016) describes the “You-Only-Look-Once method” (also known as the YOLO method), which uses a grid in a single neural network to achieve simultaneous classification and localization of objects in images. The neural network determines class probabilities assigned to the objects as well as the frames surrounding the objects in the image and localizing the object.
  • the frames each surround an individual classified object, with the edges of the frames running parallel to the edges of the rectangular, evaluated image.
  • the invention is based on the object of specifying an improved method for determining a parking space, which in particular enables improved adaptability of parking space detection to different requirements as well as improved precision in parking space detection.
  • a method of the type mentioned at the outset comprising the following steps: ⁇ Acquiring measurement data describing an environment of the vehicle with the at least one environment sensor, the measurement data being assigned to one or more objects in the area surrounding the vehicle, ⁇ Creating at least one environment map describing the environment of the vehicle from the measurement data, the measurement data in the environment map being specified spatially in relation to the vehicle, ⁇ Evaluating the at least one environment map by the computing device, the environment map being fed to a convolutional neural network, where the neural network classifies and locates existing parking spaces in the area surrounding the vehicle from the environment map, whereby the 202107831 3 neural network uses regression to determine the relative arrangement of the parking spaces to the vehicle, and ⁇ generate the parking information from the classified and localized parking spaces and their relative arrangement.
  • the method according to the invention is based on measurement data which are determined using one or more environmental sensors of a vehicle.
  • the measurement data describes objects in the area surrounding the vehicle.
  • the objects can in particular be third-party vehicles, infrastructure objects, buildings or structures as well as road and/or parking lot markings.
  • the measurement data describes objects that can generally limit parking spaces.
  • the measurement data can be recorded using one or more different types of environmental sensors.
  • the measurement data can, for example, be measuring points to which a distance to the vehicle is assigned. Such measuring points can be generated, for example, using ultrasonic sensors, radar sensors or lidar sensors.
  • the measurement data as an object can describe, for example, a road or parking lot marking and its distance or arrangement relative to the vehicle.
  • An environment map is then created from the recorded measurement data, which in particular describes the current environment of the vehicle.
  • the measurement data is specified spatially in relation to the vehicle, for example in a rectangular map in which the vehicle is in the center.
  • the measurement data can be entered, for example, in a two-dimensional map, which depicts the plane extending along the vehicle's longitudinal direction and the vehicle's transverse direction.
  • the environment map can be generated, for example, as an occupancy map.
  • the environment map can preferably have a spatial grid into which the measurement data is entered or to which the measurement data is assigned.
  • the environment of the vehicle described by the measurement data can be mapped on the environment map.
  • the invention is based on the knowledge that such an environment map can be viewed as an image or that deep learning methods used for image evaluation can also be applicable to such an environment map.
  • a convolutional neural network (CNN) is used to evaluate the environment map. This is preferably stored in the computing device of the sensor device so that the environment map can be fed to it as input data.
  • the neural network is evaluated with regard to parking spaces in the area surrounding the vehicle or free parking spaces in the area surrounding the vehicle. To do this, the neural network classifies and locates parking spaces in the area surrounding the vehicle based on the surrounding map.
  • the neural network carries out an image evaluation process based on the YOLO method on the environment map. It is possible for the convolutional neural network to be followed by another neural network for evaluating the output data determined by the convolutional neural network. In addition, the neural network uses regression to determine the relative arrangement of the parking spaces to the vehicle.
  • the localization of a detected parking space is not only indicated by inserting a rectangular frame that encloses the parking space and is always aligned along the edges of the image, but instead the relative position or .the relative position and the relative orientation of the parking space to the vehicle.
  • an angle can be determined by which the parking space is 202107831 5 is rotated relative to the vehicle.
  • the parking space can advantageously be localized taking into account the information required for a particularly assisted or at least partially automated parking process.
  • the parking spaces can be classified in particular by assigning a classification probability to different sections of the surrounding map.
  • the classification can be carried out by specifying a classification probability for different sub-areas of the environment map, the classification probability indicating the probability with which the sub-section is a parking space, ie a free parking space for the vehicle.
  • Parking information is then formed from the parking spaces classified by the neural network and their relative arrangement.
  • the parking information can contain at least the parking spaces whose classification probability is above a predetermined limit value, with the relative arrangement to the vehicle also being specified for these parking spaces.
  • the parking information can then be used to control an actuator of the vehicle and/or a display device of the vehicle.
  • the actuator of the vehicle can, for example, be an actuator of the vehicle designed for transverse guidance and/or longitudinal guidance.
  • the at least one actuator can be, for example, a drive motor of the vehicle and/or a steering drive of the vehicle.
  • automated or partially automated control of a parking process of the vehicle can take place, in particular by controlling at least one actuator of the vehicle.
  • the vehicle can move forward and/or backward during the parking process, make steering angle changes to a set steering angle between and/or during these movements and 202107831 6 in particular also carry out several movements or pulls in different directions.
  • the parking process can in particular be carried out in such a way that the vehicle is positioned in at least one parking space described by the parking information.
  • At least one display device of the vehicle can also be controlled, so that, for example, a driver of the vehicle can be made aware of the parking spaces determined in the area surrounding the vehicle, for example by means of a corresponding pictorial representation.
  • the display device can be, for example, a display arranged in an interior of the vehicle, a heads-up display, a virtual side mirror and/or the like.
  • the representation on the display device can be used, for example, to enable the driver to select one of several identified parking spaces as the destination of a parking process. Additionally or alternatively, aids such as virtual lines and markings for moving the vehicle into a determined and/or selected parking space can be displayed on the display device, which enable the driver to control a movement of the vehicle into this parking space.
  • the vehicle can be, for example, a motor vehicle such as a passenger car or a truck. Furthermore, the vehicle can also be a vehicle combination, which has, for example, a towing vehicle and one or more trailers. Alternatively, the method can also be used on other types of vehicles.
  • the sensor device of the vehicle can have one or more environment sensors. The surrounding sensors are arranged on the vehicle so that they can record the immediate surroundings of the vehicle.
  • the sensor device further comprises a computing device, which can be part of the vehicle. Alternatively, it is possible for the computing direction to be a computing direction external to the vehicle, which is connected, for example, to the at least one environment sensor via a particularly wireless one 202107831 7 Communication link communicated.
  • Parking information determined by a vehicle-external computing device can also be transmitted back to the vehicle via the communication connection, so that the previously described control of the actuator and/or the display device of the vehicle can take place depending on the parking information.
  • the creation of the environment map from the measurement data of the at least one environment sensor can also be done by the computing device. Alternatively, this step can also be carried out by a further computing device of the vehicle and/or a further computing device external to the vehicle, with the further computing device transmitting the environment map to the computing device.
  • the neural network used to evaluate the environment map is a convolutional neural network (CNN), which is stored in the computing device or a storage unit of the computing device.
  • the environment map is evaluated using artificial intelligence or a deep learning method.
  • the folding neural network is set up or trained to classify and locate existing parking spaces in the area surrounding the vehicle from the map of the surroundings and to use regression to determine the relative arrangement of the parking spaces to the vehicle.
  • the parking space can be determined based on the surrounding map using a process that can be adapted and improved using machine learning.
  • machine learning refers to the use of algorithms for analyzing training data, learning from this training data and then determining or predicting an initially unknown property of input data to be evaluated.
  • the term “deep learning” (DL) in the sense of the invention includes a cascade of several layers of nonlinear processing units (usually artificial neural networks) for the extraction and transformation of features (or for the extraction and transformation of parameters).
  • the term “artificial neural network” (ANN) or “convolutional neural network” (CNN) includes networks of artificial neurons that are connected to each other in the abstract, as in a nervous system of a living being, in terms of information processing. The neurons can be represented as nodes and their connections as edges in a diagram.
  • the backmost (node) layer of the network is called the output layer and the "invisible" (node) layers that are at the front are called hidden layers.
  • Such artificial neural networks can be single-layer (one output layer), two-layer (one output layer and one hidden layer to improve abstraction) or multi-layer (at least one output layer and several hidden layers to improve abstraction).
  • these can be designed to be forward-facing (feedforward) and/or with backward-facing edges (recurrent connections) (feedback; feedback network).
  • feedforward forward-facing
  • recurrent connections backward-facing edges
  • feedback feedback network
  • the data processor such as a computer, a computer network, or other programmable device, can process data using programmable calculation rules.
  • essential properties can be realized, for example through a new program, new programs, algorithms or similar.
  • the environment map contains a map grid and the measurement data are assigned to the cells of the map grid, with for each cell the number of measurement points of the measurement data assigned to the cell, the height of an object described by the measurement data assigned to the cell, the Type of an object described by the measurement data assigned to the cell and / or at least one signal property is specified by the measurement data assigned to the cell.
  • the number of echoes reflected from an object in the cell can be stored as signal properties.
  • a sensor of this type can be, for example, an ultrasonic sensor, a radar sensor or a lidar sensor.
  • the echoes can in particular each represent a measuring point.
  • information about the height of the object on which the echo was reflected can also be determined from the echoes or measuring points from such sensors. Height information describing this height of the object can also be assigned to the individual cells of the map grid of the surrounding map for each measuring point or averaged over several measuring points.
  • the intensity of the echoes or measuring points assigned to the cell can be stored in the environment map as a signal property.
  • the intensity can be specified for the individual measuring points or averaged.
  • further properties of the measurement data in particular properties that enable conclusions to be drawn about an object type and/or a detection quality, can also be entered in the environment map.
  • the type of an object described by the measurement data for the respective cell can also be specified in the environment map or assigned to the individual cells.
  • the type of an object can be determined from the measurement data, for example from measurement data obtained via an environmental camera. In this way, objects that can be detected via ultrasound, radar 202107831 10 or lidar sensors cannot be detected or can only be detected with difficulty, such as road or parking lot markings, are entered in the surrounding map.
  • This information is assigned in particular to those cells whose position corresponds to the object position determined via the sensor device.
  • no measurement data can be assigned to cells of the environment map that correspond to a section of space in the area surrounding the vehicle that is not blocked by an object, so that they remain free.
  • the neural network is set up to overlay the environment map with an evaluation grid comprising several cells, with each cell being assigned at least one frame, with a classification as a parking space and / or an orientation in the parking information for each of the frames a parking space described by the measurement data and assigned to the frame is specified relative to the vehicle.
  • the frame which can also be referred to as a box, has in particular a rectangular shape.
  • the frames of several cells of the evaluation grid can be positioned and/or aligned in the same way with respect to the cells.
  • the frames each represent initial assumptions for possible parking spaces, to which a classification information, for example a classification probability, for classification as a parking space can be assigned by the neural network.
  • a classification information for example a classification probability
  • This also enables at least a basic localization of possible parking spaces in the surrounding map.
  • additional properties that describe the exact positioning and orientation of the parking space and/or their respective width and length can be determined by means of regression by the neural network.
  • an evaluation grid is used in which each cell has several different ones 202107831 11 positioned and/or differently oriented frames are assigned.
  • the frames can, for example, be two rectangular frames arranged rotated by 90° relative to one another. This simplifies the determination of the relative alignment of the parking space to the vehicle, since it can initially be assumed that the frame already corresponds more closely to a parking space described by the surrounding map or has a higher probability of classification. It is also possible that each cell of the evaluation rater contains more than two frames and/or that they are oriented in a different way to one another.
  • the orientation of the parking space can be determined by the frames or localization and/or orientation parameters can be determined by several differently positioned and/or differently oriented frames. The more frames are used, the more precisely the localization and determination of the relative arrangement of the parking space in relation to the vehicle can be carried out.
  • the parking information for at least some of the classified parking spaces additionally contains position information, the position information describing a target position for the vehicle that is assigned to the respective parking space and lies within the parking space.
  • the position information can be used to take into account that the parking space is generally larger, that is, it offers more parking space than is occupied by the vehicle after parking.
  • the target position can therefore in particular lie completely within the parking space and, for example, maintain a predetermined safety distance from the edges or edges of the parking space.
  • the target position can also be described, for example, by a rectangle which has a shorter edge length than the parking space and/or is rotated at an angle relative to the parking space.
  • the position information can also advantageously be determined using the convolutional neural network, in particular also using regression.
  • the classification of the parking space is a classification as a perpendicular parking space and as 202107831 12 parallel parking space included.
  • the determination of the relative arrangement of a parking space to the vehicle can also be advantageously used to classify a parking space as a perpendicular parking space and/or as a parallel parking space.
  • a parallel parking space describes a parking space in which you can park alongside the direction of travel of a street on which the vehicle is located.
  • a transverse parking space refers to a parking space in which the vehicle can be parked perpendicular to the direction of travel of a street on which the vehicle is located.
  • a distinction between a perpendicular parking space and a parallel parking space can be made, for example, by providing two rectangular frames rotated by 90° relative to each other in the evaluation grid.
  • a sensor device which comprises at least one ultrasonic sensor, at least one lidar sensor, at least one radar sensor and/or at least one surroundings camera as at least one environment sensor.
  • the sensor device can in particular comprise several of the aforementioned sensor types and/or combinations of the aforementioned sensor types.
  • the respective measurement data from different sensors can in particular be entered or merged into the same environment map.
  • the invention relates to a method for training a folding neural network, comprising the steps: - Providing at least one training data set comprising several training environment maps each describing the environment of the vehicle from training measurement data, the training measurement data being spatially in the training environment map Reference to a vehicle are specified, - assigning a ground truth describing at least one parking space in the area surrounding the vehicle to each of the training environment maps, the ground truth classifying and localizing at least a section of the training environment map as a parking space, the ground truth being the relative orientation of the indicates parking space for the vehicle, 202107831 13 - Overlaying the training environment maps each with an evaluation grid comprising several cells, with at least one frame being assigned to each cell of the evaluation grid, - determining the respective frame with the largest overlap to the at least one parking space described by the ground truth, and - optimizing of the neural network with regard to a match in the relative arrangement between the respective frame with the largest overlap and the parking space described by the ground truth.
  • the method according to the invention for training a folding neural network can be used in particular for training a neural network used in a method according to the invention for determining parking information describing at least one parking space.
  • the internal parameters of the neural network can be adjusted so that it can be set up or trained for the evaluation of the environment maps created from the measurement data according to the method according to the invention for determining parking information describing at least one parking space.
  • the creation of the training environment maps from the training measurement data is carried out in particular analogous to the creation of the environment maps from the measurement data, as described above.
  • the training measurement data are indicated in the training environment map in relation to the position of a vehicle.
  • the training measurement data can, for example, have been determined at an earlier point in time by means of a sensor device of a vehicle comprising at least one environment sensor and can then be used for training. Alternatively, training measurement data created and/or calculated in a different way can also be used.
  • a ground truth is then assigned to each of the training environment maps, with the ground truth describing one or more parking spaces in the environment map. In addition, the ground truth also gives the location for locating the parking space as well as the relative orientation of the parking space to the 202107831 14 vehicle described in the area map. The ground truth represents the result to which the evaluation of the neural network is optimized during training.
  • the training environment maps are then overlaid during training with an evaluation grid comprising several cells, which can also be referred to as a training evaluation grid in relation to the training of the neural network.
  • At least one frame or at least one box is assigned to the cells of the evaluation grid. These represent initial assumptions for possible parking spaces.
  • the frame that has the largest overlap with a parking space described by the ground truth is then selected from the majority of frames in the evaluation grid. In particular, the frame with the largest overlap is determined for each parking space described in the ground truth.
  • the overlap can also be referred to as Intersection Over Union (IoU) and indicates the proportion to which each of the frames in the evaluation grid overlaps with one of the parking spaces described by the ground truth.
  • IoU Intersection Over Union
  • the neural network After determining the one or more frames with the largest overlap to one or more parking spaces described by the ground truth, the neural network is optimized with regard to a match in the relative arrangement between the respective frame with the largest overlap and the one described by the ground truth. parking space assigned to the frame. In this way, the neural network can be trained efficiently for the recognition of parking spaces in maps of the surrounding area, in particular for use in a method according to the invention for determining parking information describing at least one parking space. According to the invention, it can be provided that, in order to determine the overlap, it is determined in which cell the center of the at least one parking space described by the ground truth lies, the frame of this 202107831 15 cell is chosen as the frame with the largest overlap, whose area-related overlap with the parking space described by the ground truth is largest.
  • an evaluation grid is used in which several differently positioned and/or differently oriented frames are assigned to each cell and/or that the classification of the parking space includes a classification as a perpendicular parking space and as a parallel parking space. Analogous to the determination of the parking information describing at least one parking space, several frames per cell of the evaluation grid can also be used during training.
  • These frames can in particular be rectangular and arranged at different positions and/or with different orientations to the cards of a rectangular cell of the evaluation grid. These frames can be used, for example, to make a distinction between a perpendicular parking space and a parallel parking space and thus also to train the neural network with regard to a corresponding classification or distinction.
  • the ground truth for the at least one parking space described by the ground truth additionally contains position information, the position information describing a target position for the vehicle assigned to the respective parking space and lying within the parking space, the optimization of the neural network also with regard to Position information is provided. In this way, it can be achieved that the neural network is also trained with regard to position information located within the parking space, so that this can also be determined by the neural network.
  • the invention further relates to a sensor device comprising at least one environment sensor and a computing device, wherein the computing device is set up to carry out a method according to the invention for determining parking information describing at least one parking space.
  • the invention further relates to a vehicle comprising at least one sensor device according to the invention.
  • the invention also relates to a computer program product comprising instructions which cause a computing device to carry out a method according to the invention for determining parking information describing at least one parking space.
  • the invention relates to a computer-readable storage medium comprising a computer program product according to the invention.
  • the computer-readable storage medium can be, for example, a non-transient data carrier, for example a CD, a DVD, a floppy disk, a flash memory or the like. All of the advantages and refinements described above for the method according to the invention for determining parking information describing at least one parking space also apply accordingly to the method according to the invention for training a convolutional neural network and vice versa. Furthermore, all advantages and refinements described in relation to one of the methods according to the invention also apply correspondingly to the sensor device according to the invention, the vehicle according to the invention, the computer program product according to the invention and the computer-readable storage medium according to the invention and vice versa. 202107831 17 Further advantages and details of the invention emerge from the exemplary embodiments described below and from the drawings.
  • FIG. 1 An exemplary embodiment of a vehicle 1 according to the invention is shown in FIG.
  • the vehicle 1 can be, for example, a motor vehicle such as a passenger car or a truck.
  • the vehicle 1 can also be a vehicle combination, which has, for example, a towing vehicle and one or more trailers.
  • the method can also be used on other types of vehicles.
  • the vehicle 1 includes a sensor device 2, which has several environment sensors 3 and a computing device 4.
  • the environment sensors 3 of the sensor device 2 are designed, for example, as ultrasonic sensors.
  • the surroundings sensors 3 can also be designed as a surroundings camera, as a radar sensor and/or as a lidar sensor.
  • the computer device 4 of the sensor device 2 is shown as part of the vehicle 1 in the present exemplary embodiment. It is possible that the computing device 4 is integrated into one of the environment sensors 3 or that it 202107831 18 is a computing device external to the vehicle.
  • a vehicle-external computing device can communicate with the environment sensors 3 and/or other devices of the vehicle 1 via a particularly wireless communication connection.
  • measurement data from the surroundings of the vehicle 1 can be determined.
  • the measurement data describes objects that are in the vicinity of the vehicle 1.
  • the objects can be, for example, other road users such as other vehicles or similar.
  • the computing device 4 of the sensor device 2 is designed to carry out a method for determining parking information describing at least one parking space in the vicinity of the vehicle 1.
  • a parking process of the vehicle 1 can take place, in particular by controlling at least one actuator (not shown) of the vehicle 1.
  • the vehicle 1 can move forward and / or backward during the parking process, carry out steering movements and in particular, carry out several partial movements or moves.
  • the parking process can in particular be carried out in such a way that the vehicle is positioned in at least one parking space described by the parking information.
  • a display device (not shown) of the vehicle 1 can also be controlled, so that, for example, a driver of the vehicle 1 can be made aware of the parking spaces determined in the area surrounding the vehicle, for example by means of a corresponding pictorial representation.
  • the display device can be, for example, a display arranged in an interior of the vehicle 1, a heads-up display, a virtual side mirror or the like.
  • the representation on the display device can be used, for example, to enable the driver to select one of several identified parking spaces as the destination of a parking operation.
  • 202107831 19 aids for moving the vehicle 1 into a determined and/or selected parking space can be displayed on the display device, which enable the driver to move the vehicle 1 into this parking space.
  • measurement data describing the surroundings or the surroundings of the vehicle 1 are first determined with one or more of the surroundings sensors 3, the measurement data being assigned to one or more objects in the surroundings of the Vehicle 1 are assigned.
  • At least one environment map 5 describing the environment of the vehicle 1 is then created from the measurement data, the measurement data being indicated spatially in relation to the vehicle 1 in the environment map 5.
  • An exemplary embodiment of such an environment map 5 is shown in FIG.
  • the environment map 5 is a rectangular map in which the vehicle 1 is arranged in the middle.
  • the measurement data are indicated spatially in relation to the vehicle 1 in the environment map 5.
  • the measurement data are shown here as measurement points 6, which can be determined, for example, by environmental sensors 3 designed as ultrasonic sensors.
  • the measuring points 6 of the measurement data each describe a signal echo that was reflected by an object in the vicinity of the vehicle 1.
  • the individual measuring points 6 each include a distance measurement in relation to the vehicle 1, which can be carried out, for example, from a transit time measurement.
  • a direction can also be determined for each of the measuring points 6, so that the reflection locations or the objects assigned to the measuring points 6 can be placed in spatial relation to the vehicle 1.
  • the environment map 5 further comprises a map grid 7, with the measurement data being assigned to the individual cells 8 of the map grid 7. For each of the cells 8, for example, the number of measurement points 6 of the measurement data assigned to the cell 8 can be determined and stored in the environment map 5.
  • the height of an object described by the measurement data assigned to the cell 8 and the type of such an object can also be added to the individual cells 8 202107831 20 and/or at least one further signal property of the measurement data assigned to the cell can be specified.
  • the signal property can be, for example, the intensity of the individual measuring points 6. It is possible for a signal property such as the intensity to be specified, for example averaged for all measuring points of one of the cells 8. This can also be done accordingly with information regarding the height of an object and/or the type of an object.
  • measurement points 6 of environment sensors 2 designed as ultrasonic sensors measurement points 6 of environment sensors 3 designed as radar sensors and/or lidar sensors can also be included in the environment map 5 be entered.
  • objects determined via other types of sensors can also be entered in the surroundings map 5.
  • objects such as road markings, parking lot markings or the like can also be entered in the environment map 5.
  • the at least one environment map 5 is then evaluated by the computing device 4, the environment map 5 being fed to a folding neural network implemented by the computing device 4, the neural network classifying and localizing parking spaces 9 present in the area surrounding the vehicle 1 from the environment map 5, wherein the neural network uses regression to determine the relative arrangement of the parking spaces 9 to the vehicle 1.
  • the computing device 4 or another computing device then generates the parking information describing at least one parking space 9 in the surroundings of the vehicle 1.
  • the environment map 5 can be processed like a two-dimensional image file by the neural network.
  • the neural network is set up to overlay the environment map 5 with an evaluation grid 11 comprising several cells 10, with each cell 10 202107831 21 at least one frame 12 is assigned.
  • An environment map 5 superimposed with an evaluation grid 11 is shown in Fig.3.
  • each cell 10 comprises two rectangular frames 12, 13, which are arranged rotated by 90°.
  • the frames 12, 13 are therefore oriented differently with respect to the cell 10.
  • the cells 10 to also be assigned additional frames (not shown), which, for example, have the same orientation as one of the frames 12, 13, but along one of the edges of the cell 10 in the x direction and/or in y direction are arranged offset.
  • a classification as a parking space and/or an orientation of a parking space 9 described by the measurement data and assigned to the frame 12, 13 relative to the vehicle 1 is specified for each of the frames 12, 13 of all cells 10 of the evaluation grid 11.
  • a parking space 9 can be classified as such if a classification probability determined by the neural network is above a predetermined limit value. Accordingly, a parking space can be classified as a parallel parking space or as a perpendicular parking space if the corresponding classification probability assigned to one of the frames 12, 13 is above a predetermined limit value.
  • the neural network additionally determines, at least for the frames 12, 13 classified as parking space 9, the relative arrangement of the parking space 9 to the vehicle 1 by means of regression. In this way, an exact localization of the parking space 9 in relation to the vehicle 1 is determined. Furthermore, different orientations of the parking spaces or different relative arrangements between vehicle 1 and a determined parking space 9 can be taken into account in this way.
  • the parking information derived from the output of the neural network can also be used for at least some of the detected parking spaces 9 202107831 22 contain position information, wherein the position information describes a target position for the vehicle 1 that is assigned to the respective parking space 9 and lies within the parking space 9.
  • the parking information generated can, for example, be a tensor which indicates for each of the frames 12, 13 whether it is a parking space 9 or not or whether it is a perpendicular parking space or a parallel parking space. Further information can be provided for each frame 12, 13 classified as a parking space 9.
  • the parking information can contain, for example, a vector ⁇ ⁇ , which can be used as can be expressed.
  • the values assigned to the frame 12 are marked, for example, with the index “1” and the values assigned to the frame 13, which are largely not shown for reasons of clarity, are marked with the index “2”.
  • the individual values or components of the vector describe: P: an indicator (e.g.
  • bx 0 or 1), whether the corresponding frame 12, 13 is a parking space 9, bx, by: the coordinates in the x direction and y- Direction of a center point of the determined parking space 9, for example as a percentage based on the size of the cell 10 starting from the lower left corner, bw, bh: the width and the height of the determined parking space 9, specified for example as a percentage based on the width and the height of the cell 10 of the evaluation grid 11, b ⁇ : angle or rotation of the parking space 9 in relation to the cell 10, tx, ty: coordinates of a center point of a target position within the determined parking space 9, specified, for example, as a percentage in relation to the Cell 10 and relative to its center, 202107831 23 t ⁇ : Angle of the target position, specified for example in relation to the determined parking space 9.
  • Cpar, Cperp, Cvoid The class probabilities for the presence of a parallel parking space (Cpar), for the presence of a perpendicular parking space (Cperp) and for the existence of no parking space (Cvoid).
  • the indicator P can be set to one if one of the probabilities Cpar or Cperp is above a predetermined limit, or set to zero if the probability Cvoid is above a predetermined limit.
  • the information tx, ty and t ⁇ form position information which describes the target position for the vehicle 1 that is assigned to the respective parking space and lies within the parking space.
  • At least one training data set is first comprising several each describing the environment of the vehicle 1
  • Training environment maps provided from training measurement data.
  • the measurement data in the training environment map are spatially specified in relation to a vehicle 1.
  • the training method serves in particular to train the convolutional neural network implemented in the computing device 4 to carry out the exemplary embodiment described above.
  • 202107831 24 Each of the training environment maps is assigned a ground truth describing at least one parking space 14 in the surroundings of the vehicle 1, the ground truth classifying and localizing at least a section of the training environment map as a parking space 14.
  • the ground truth indicates the relative orientation of the parking space 14 to the vehicle.
  • a parking space 14 specified by the ground truth is shown in FIG.
  • the training environment maps basically correspond to the environment maps 5, as described above. Also during training, the training environment maps, as described above and as shown in FIG .
  • the respective frame 12, 13 with the largest overlap to the at least one parking space 14 described by the ground truth is then determined.
  • the neural network is then checked for a match in the relative arrangement between the respective frame 12, 13 with the largest overlap and the parking space 14 described by the ground truth is optimized.
  • To determine the overlap it is determined in which of the cells 10 of the evaluation grid 11 the center point 15 of the at least one parking space 14 described by the ground truth lies. In the example shown in Figure 3, this is cell 10, which is in the second row and the fifth column.
  • the frame 12, 13 in this cell is selected as the frame with the largest overlap, whose overlap with the parking space 14 described by the ground truth is largest.
  • a value for its area-related overlap or its Intersection Over Union (IoU) is determined for each of the frames 12, 13 in the cell in which the center 15 lies. 202107831 25
  • the overlap with the vertically oriented frame 12 is larger, so that this is chosen as the goal of optimizing the neural network.
  • it can be determined or trained accordingly whether it is a parallel parking space or, as in the present case, a perpendicular parking space.
  • an evaluation grid 11 it is possible for an evaluation grid 11 to be used in which more than two frames 12, 13 are assigned to each cell 10.
  • the multiple frames 12, 13 can be positioned differently and/or oriented differently. Different dimensions, such as a different width, a different length, a different position of the center of the frame 12 and the parking space 14 with respect to the cell 10 as well as the relative orientation (angle ⁇ ) between the frame 12 and the parking space 14, which are determined by the neural network are also determined using regression and are also trained.
  • the orientation of the parking space 14 can be approximated by the frames 12, 13 or, by using two or more frames 12, 13 per cell 10, differently positioned and/or differently oriented localization and/or orientation parameters can be initially specified.
  • the ground truth for the at least one parking space 14 can additionally contain position information, the position information describing a target position for the vehicle 1 that is assigned to the respective parking space 14 and lies within the parking space, the optimization of the neural network also taking place with regard to the position information. This can be done accordingly by training the determination of the parameters ⁇ ', ⁇ and ⁇ (. 202107831 26
  • Optimizing the neural network can be done using a loss function.
  • the loss function can minimize error squares for all variables of the vector ⁇ ⁇ or for all variables $, which should be able to be determined in relation to one of the frames 12, 13.
  • a softmax function can also be used or only the errors of the class probabilities ⁇ )*+, ⁇ ),+) and ⁇ -.$/ and/or the classification probability ⁇ 0 can be minimized.

Abstract

The invention relates to a method for determining an item of parking information, that describes at least one parking space (9), using a sensor device (2) of a vehicle (1), the sensor device (2) having at least one environment sensor (3) and a computing device (4), said method comprising the steps: - using the at least one environment sensor (1) to capture measurement data that describes an environment of the vehicle (1), the measurement data being associated with one or more objects in the environment of the vehicle (1); - based on the measurement data, creating at least one environment map (5) that describes the environment of the vehicle (1), the measurement data being indicated in the environment map spatially in relation to the vehicle (1); - analysing the at least one environment map (5) using the computing device (4), the environment map (5) being fed to a convolutional neural network, the neural network classifying and localising parking spaces (9) that are present in the environment of the vehicle (1) based on the environment map (5), the neural network determining the arrangement of each of the parking spaces (9) relative to the vehicle (1) by means of regression, and - generating the parking information based on the classified and localised parking spaces (9) and their relative arrangement.

Description

202107831 1 Beschreibung Verfahren zum Ermitteln einer Parklücke mithilfe eines faltenden neuronalen Netzes Die Erfindung betrifft ein Verfahren zum Ermitteln einer wenigstens eine Parklücke beschreibenden Parkinformation mit einer Sensoreinrichtung eines Fahrzeugs, wobei die Sensoreinrichtung wenigstens einen Umfeldsensor und eine Recheneinrichtung aufweist. Weiterhin betrifft die Erfindung ein Verfahren zum Trainieren eines faltenden neuronalen Netzes, eine Sensoreinrichtung, ein Fahrzeug, ein Computerprogrammprodukt und ein computerlesbares Speichermedium. Moderne Fahrzeuge können mittels Umfeldsensoren Informationen über verschiedene Objekte im Umfeld des Fahrzeugs gewinnen. Diese Objekte können zum Beispiel andere Verkehrsteilnehmer wie sich bewegende oder stationäre Fremdfahrzeuge oder unbewegliche Strukturen wie Bordsteine, Mauern, Markierungen oder dergleichen sein. Die auf diese Weise gewonnenen Information können zur Bereitstellung unterschiedlicher Fahrerassistenzfunktionen herangezogen werden. Beispielsweise können aus einer auf solchen Objektinformationen basierenden Umfeldbeschreibung weitere Informationen hinsichtlich zur Verfügung stehender Parklücken im Umfeld des Fahrzeugs abgeleitet werden. Dazu werden in der Regel Algorithmen verwendet, welche aus den im Umfeld erkannten Objekten und/oder ihrer Anordnung gemäß festgelegter Regeln und Abhängigkeiten freie Parklücken ermitteln. Die Regeln werden dabei beispielsweise durch Suchtabellen und/oder durch einzelne Fallabfragen bzw. if-Bedingungen festgelegt. Dieses Vorgehen hat den Nachteil, dass das Erstellen und Überprüfen dieser vergleichsweise komplexen und umfangreichen Regeln zeitaufwändig ist und dass grundsätzlich die Parklückenerkennung auf die durch die Regeln abgefragten Szenarien beschränkt ist. Weiterhin sind auch eine Weiterentwicklung der Regeln sowie deren Anpassung an unterschiedliche Fahrzeuge und/oder unterschiedliche Anforderungen an die Parklückenermittlung nur mit großem Aufwand umzusetzen. 202107831 2 Aus anderen Bereichen der Technik sind zur maschinellen Auswertung von Bilddaten bzw. zum computerbasierten Sehen sogenannte Deep-Learning- Methoden, welche eine Auswertung der Bilddaten mittels künstlicher Intelligenz vorsehen, bekannt. Ein Beispiel für eine solche Methode ist die im Artikel von Redmon, Joseph, et al. "You only look once: Unified, real-time object detection." Proceedings of the IEEE conference on computer vision and pattern recognition (2016) beschriebene „You- Only-Look-Once-Methode“ (auch als YOLO-Methode bezeichnet), welche durch Verwendung eines Rasters in einem einzelnen neuronalen Netz die simultane Klassifizierung und Lokalisierung von Objekten in Bildern ermöglicht. Das neuronale Netz ermittelt dabei den Objekten zugeordnete Klassenwahrscheinlichkeiten sowie die Objekte in dem Bild einfassende, das Objekt lokalisierende Rahmen. Die Rahmen umgeben dabei jeweils ein einzelnes klassifiziertes Objekt, wobei die Kanten der Rahmen jeweils parallel zu den Kanten des rechteckigen, ausgewerteten Bildes verlaufen. Der Erfindung liegt die Aufgabe zugrunde, ein verbessertes Verfahren zum Ermitteln einer Parklücke anzugeben, welches insbesondere eine verbesserte Anpassbarkeit der Parklückenerkennung an unterschiedliche Anforderungen sowie eine verbesserte Präzision bei der Parklückenerkennung ermöglicht. Diese Aufgabe wird erfindungsgemäß durch ein Verfahren der eingangs genannten Art gelöst, wobei das Verfahren die folgenden Schritte umfasst: ^ Erfassen von ein Umfeld des Fahrzeugs beschreibenden Messdaten mit dem wenigstens einen Umfeldsensor, wobei die Messdaten einem oder mehreren Objekten im Umfeld des Fahrzeugs zugeordnet sind, ^ Erstellen wenigstens einer das Umfeld des Fahrzeugs beschreibenden Umfeldkarte aus den Messdaten, wobei die Messdaten in der Umfeldkarte räumlich in Bezug zu dem Fahrzeug angegeben sind, ^ Auswerten der wenigstens einen Umfeldkarte durch die Recheneinrichtung, wobei die Umfeldkarte einem faltenden neuronalen Netzwerk zugeführt wird, wobei das neuronale Netzwerk aus der Umfeldkarte im Umfeld des Fahrzeugs vorhandene Parklücken klassifiziert und lokalisiert, wobei das 202107831 3 neuronale Netz mittels Regression jeweils die relative Anordnung der Parklücken zu dem Fahrzeug ermittelt, und ^ Erzeugen der Parkinformation aus den klassifizierten und lokalisierten Parklücken sowie ihrer relativen Anordnung. Das erfindungsgemäße Verfahren geht aus von Messdaten, welche mit einem oder mehreren Umfeldsensoren eines Fahrzeugs ermittelt werden. Die Messdaten beschreiben dabei Objekte im Umfeld des Fahrzeugs. Bei den Objekten kann es sich insbesondere um Fremdfahrzeuge, Infrastrukturobjekte, Gebäude oder Bauwerke sowie um Fahrbahn- und/oder Parkplatzmarkierungen handeln. Insbesondere beschreiben die Messdaten Objekte, welche im Allgemeinen Parklücken begrenzen können. Die Messdaten können mittels einem oder mehrerer unterschiedlicher Typen von Umfeldsensoren erfasst werden. Die Messdaten können abhängig vom Typ des Umfeldsensors zum Beispiel Messpunkte sein, welchen eine Entfernung zum Fahrzeug zugeordnet ist. Derartige Messpunkte können beispielsweise mittels Ultraschallsensoren, Radarsensoren oder Lidar-Sensoren erzeugt werden. Bei einem als Kamera ausgebildeten Sensor können die Messdaten als Objekt zum Beispiel eine Fahrbahn- oder Parkplatzmarkierung sowie deren Abstand bzw. Anordnung relativ zum Fahrzeug beschreiben. Aus den erfassten Messdaten, welche insbesondere das aktuelle Umfeld des Fahrzeugs beschreiben, wird anschließend eine Umfeldkarte erstellt. Dazu werden die Messdaten räumlich in Bezug zu dem Fahrzeug angegeben, beispielsweise in einer rechteckigen Karte, in der das Fahrzeug im Zentrum liegt. Die Messdaten können dabei zum Beispiel in einer zweidimensionalen Karte, welche die sich entlang der Fahrzeuglängsrichtung und der Fahrzeugquerrichtung erstreckende Ebene abbildet, eingetragen werden. Die Umfeldkarte kann zum Beispiel als eine Belegungskarte (engl. occupancy map) erzeugt werden. Die Umfeldkarte kann dabei bevorzugt ein räumliches Raster aufweisen, in welches die Messdaten eingetragen werden bzw. welchem die Messdaten zugeordnet werden. 202107831 4 Auf diese Weise kann das durch die Messdaten beschriebene Umfeld des Fahrzeugs in der Umfeldkarte abgebildet werden. Die Erfindung beruht auf der Erkenntnis, dass eine solche Umfeldkarte als ein Bild aufgefasst werden kann bzw. dass für die Bildauswertung verwendete Deep- Learning-Methoden auch auf eine derartige Umfeldkarte anwendbar sein können. Entsprechend wird erfindungsgemäß zur Auswertung der Umfeldkarte ein faltendes neuronales Netz (convolutional neural network, CNN) verwendet. Dieses ist bevorzugt in der Recheneinrichtung der Sensoreinrichtung hinterlegt, sodass ihm die Umfeldkarte als Eingangsdaten zugeführt werden kann. Mithilfe des neuronalen Netzes erfolgt eine Auswertung der Umfeldkarte hinsichtlich in der Umgebung des Fahrzeugs vorhandener Parklücken bzw. in der Umgebung des Fahrzeugs vorhandener, freier Parkplätze. Dazu klassifiziert und lokalisiert das neuronale Netzwerk auf Grundlage der Umfeldkarte Parklücken in der Umgebung des Fahrzeugs. Insbesondere wird zur Auswertung nur ein einzelnes faltendes neuronales Netz verwendet, welches sowohl die Klassifizierung als auch die Lokalisierung der Parklücken durchführt. Mit anderen Worten wird durch das neuronale Netzwerk ein an die YOLO-Methode angelehntes Bildauswerteverfahren an der Umfeldkarte durchgeführt. Es ist möglich, dass dem faltenden neuronalen Netz ein weiteres neuronales Netz zur Auswertung der von dem faltenden neuronalen Netz ermittelten Ausgangsdaten nachgeschaltet ist. Zusätzlich dazu ermittelt das neuronale Netz mittels Regression jeweils auch die relative Anordnung der Parklücken zu dem Fahrzeug. Mit anderen Worten wird im Vergleich zu der eingangs beschriebenen, klassischen YOLO-Methode die Lokalisierung einer erkannten Parklücke nicht nur durch das Einfügen eines die Parklücke einfassenden, stets entlang der Bildkanten ausgerichteten rechteckigen Rahmens angegeben, sondern es erfolgt stattdessen eine genaue Ermittlung der relativen Position bzw. der relativen Lage sowie der relativen Orientierung der Parklücke zu dem Fahrzeug. Bei einer beispielsweise rechteckigen Parklücke kann somit zum Beispiel ein Winkel ermittelt werden, um den die Parklücke 202107831 5 gegenüber dem Fahrzeug gedreht ist. Vorteilhaft kann die Lokalisierung der Parklücke somit unter Berücksichtigung für einen insbesondere assistierten oder zumindest teilautomatisierten Einparkvorgang erforderlicher Informationen erfolgen. Die Klassifizierung der Parklücken kann insbesondere unter Zuordnung einer Klassifizierungswahrscheinlichkeit zu unterschiedlichen Teilabschnitten der Umfeldkarte erfolgen. In anderen Worten kann die Klassifizierung durch Angabe jeweils einer Klassifizierungswahrscheinlichkeit zu unterschiedlichen Teilbereichen der Umfeldkarte erfolgen, wobei die Klassifizierungswahrscheinlichkeit angibt, mit welcher Wahrscheinlichkeit es sich bei dem Teilabschnitt um eine Parklücke, d.h. einen freien Parkplatz für das Fahrzeug, handelt. Aus den von dem neuronalen Netz klassifizierten Parklücken und ihrer relativen Anordnung wird anschließend eine Parkinformation gebildet. Beispielsweise kann die Parkinformation dabei wenigstens die Parklücken enthalten, deren Klassifizierungswahrscheinlichkeit über einem vorgegebenen Grenzwert liegt, wobei zu diesen Parklücken jeweils auch die relative Anordnung zum Fahrzeug angegeben wird. Die Parkinformation kann anschließend dazu verwendet werden, um einen Aktor des Fahrzeugs und/oder eine Anzeigevorrichtung des Fahrzeugs anzusteuern. Bei dem Aktor des Fahrzeugs kann es sich zum Beispiel um einen zur Querführung und/oder zur Längsführung ausgebildeten Aktor des Fahrzeugs handeln. Der wenigstens eine Aktor kann beispielsweise ein Antriebsmotor des Fahrzeugs und/oder ein Lenkantrieb des Fahrzeugs sein. In Abhängigkeit der Parkinformation kann beispielsweise eine automatisierte oder teilautomatisierte Steuerung eines Einparkvorgangs des Fahrzeugs erfolgen, insbesondere durch Ansteuerung wenigstens eines Aktors des Fahrzeugs. Das Fahrzeug kann sich bei dem Einparkvorgang vorwärts und/oder rückwärts bewegen, zwischen und/oder während diesen Bewegungen Lenkwinkeländerungen eines eingestellten Lenkwinkels vornehmen und 202107831 6 insbesondere auch mehrere Bewegungen bzw. Züge in unterschiedliche Richtungen ausführen. Der Einparkvorgang kann dabei insbesondere derart ausgeführt werden, dass das Fahrzeug in wenigstens einer durch die Parkinformation beschriebenen Parklücke positioniert wird. Zusätzlich oder alternativ zu dem Aktor kann auch wenigstens eine Anzeigevorrichtung des Fahrzeugs angesteuert werden, sodass beispielsweise einem Fahrer des Fahrzeugs die im Umfeld des Fahrzeugs ermittelten Parklücken, beispielsweise durch eine entsprechende bildliche Darstellung, kenntlich gemacht werden können. Die Anzeigevorrichtung kann dabei beispielsweise ein in einem Innenraum des Fahrzeugs angeordnetes Display, ein Heads-Up-Display, ein virtueller Seitenspiegel und/oder Ähnliches sein. Die Darstellung auf der Anzeigevorrichtung kann beispielsweise dazu verwendet werden, um dem Fahrer die Auswahl einer von mehreren ermittelten Parklücken als Zielort eines Einparkvorgangs zu ermöglichen. Zusätzlich oder alternativ dazu können Hilfsmittel wie virtuelle Linien und Markierungen für eine Bewegung des Fahrzeugs in eine ermittelte und/oder ausgewählte Parklücke auf der Anzeigevorrichtung angezeigt werden, die es dem Fahrer ermöglichen, eine Bewegung des Fahrzeugs in diese Parklücke zu steuern. Bei dem Fahrzeug kann es sich beispielsweise um ein Kraftfahrzeug wie einen Personenkraftwagen oder einen Lastkraftwagen handeln. Weiterhin kann das Fahrzeug auch ein Fahrzeuggespann sein, welches beispielsweise ein Zugfahrzeug sowie einen oder mehrere Anhänger aufweist. Alternativ kann das Verfahren auch bei weiteren Typen von Fahrzeugen eingesetzt werden. Die Sensoreinrichtung des Fahrzeugs kann eine oder mehrere Umfeldsensoren aufweisen. Die Umfeldsensoren sind dabei am Fahrzeug angeordnet, sodass sie die unmittelbare Umgebung des Fahrzeugs erfassen können. Die Sensoreinrichtung umfasst weiterhin eine Recheneinrichtung, welche Teil des Fahrzeugs sein kann. Alternativ ist es möglich, dass die Rechenrichtung eine fahrzeugexterne Rechenrichtung ist, welche beispielsweise mit dem wenigstens einen Umfeldsensor über eine insbesondere drahtlose 202107831 7 Kommunikationsverbindung kommuniziert. Eine von einer fahrzeugexternen Recheneinrichtung ermittelte Parkinformation kann über die Kommunikationsverbindung auch wieder an das Fahrzeug übermittelt werden, sodass die vorangehend beschriebene Ansteuerung des Aktors und/oder der Anzeigevorrichtung des Fahrzeugs in Abhängigkeit der Parkinformation erfolgen kann. Das Erstellen der Umfeldkarte aus den Messdaten des wenigstens einen Umfeldsensors kann ebenfalls durch die Recheneinrichtung erfolgen. Alternativ kann dieser Schritt auch von einer weiteren Recheneinrichtung des Fahrzeugs und/oder einer weiteren, fahrzeugexternen Recheneinrichtung vorgenommen werden, wobei die weitere Recheneinrichtung die Umfeldkarte an die Recheneinrichtung übermittelt. Das zur Auswertung der Umfeldkarte verwendete neuronale Netz ist ein faltendes neuronales Netz (convolutional neural network, CNN), welches in der Recheneinrichtung bzw. einer Speichereinheit der Recheneinrichtung hinterlegt ist. Die Auswertung der Umfeldkarte erfolgt also mittels künstlicher Intelligenz bzw. mittels einer Deep-Learning-Methode. Das faltende neuronale Netz ist dazu eingerichtet bzw. dazu trainiert, aus der Umfeldkarte im Umfeld des Fahrzeugs vorhandene Parklücken zu klassifizieren und zu lokalisieren und mittels Regression jeweils die relative Anordnung der Parklücken zu dem Fahrzeug zu ermitteln. Auf diese Weise kann die Parklückenermittlung auf Grundlage der Umfeldkarte mittels einem durch maschinelles Lernen anpassbaren und verbesserbaren Vorgang erfolgen. Dies ermöglicht es, die Parklückenermittlung durch entsprechendes Trainieren des neuronalen Netzes flexibel an unterschiedliche Szenarien anzupassen. Vorteilhaft wird so eine einfach umsetzbare Anpassungsmöglichkeit der Parklückenermittlung erreicht. Im Sinne der Erfindung bezeichnet der Begriff "maschinelles Lernen" (ML) die Verwendung von Algorithmen zur Analyse von Trainingsdaten, zum Lernen aus diesen Trainingsdaten und zur anschließenden Bestimmung oder Vorhersage einer zunächst unbekannten Eigenschaft von auszuwertenden Eingangsdaten. In 202107831 8 diesem Zusammenhang können sowohl kontrolliertes Lernen als auch unkontrolliertes Lernen eingesetzt werden. Unter anderem kann die Kennzeichnungsstrategie oder die Kennzeichnung von Trainingsdaten für deren Analyse von entscheidender Bedeutung sein. Der Begriff "deep learning" (DL) im Sinne der Erfindung umfasst eine Kaskade aus mehreren Schichten nichtlinearer Verarbeitungseinheiten (meist künstliche neuronale Netze) zur Extraktion und Transformation von Merkmalen (oder zur Extraktion und Transformation von Parametern). Der Begriff "künstliches neuronales Netz" (ANN) oder "faltendes neuronales Netz" (CNN) umfasst Netze künstlicher Neuronen, die abstrakt wie in einem Nervensystem eines Lebewesens in Bezug auf die Informationsverarbeitung miteinander verbunden sind. Die Neuronen können als Knoten und deren Verbindungen als Kanten in einem Diagramm dargestellt werden. Die hinterste (Knoten-)Ebene des Netzwerks wird als Ausgabeschicht bezeichnet und die "unsichtbaren" (Knoten-)Ebenen, die sich vorne befinden, werden als versteckte Ebenen bezeichnet. Derartige künstliche neuronale Netze können vom Aufbau einschichtig (eine Ausgabeschicht), zweischichtig (eine Ausgabeschicht und eine verdeckte Schicht zur Verbesserung der Abstraktion) oder mehr-schichtig (mindestens eine Ausgabeschicht sowie mehrere verdeckte Schichten zur Verbesserung der Abstraktion) sein. Zudem können diese in Hinblick auf ihre Datenübertragung vorwärtsgerichtet (feedforward) und/oder mit rückwärtsgerichteten Kanten (rekurrente Verbindungen) ausgestaltet sein (Rückkopplung; Feedbacknetz). Im Sinne der Erfindung bezeichnet der Begriff "computerimplementiertes Verfahren" einen Ablaufplan, der auf der Grundlage eines Datenprozessors realisiert und durchgeführt werden kann. Der Datenprozessor, z.B. ein Computer, ein Computernetzwerk oder ein anderes programmierbares Gerät, kann Daten mittels programmierbarer Berechnungsregeln verarbeiten. In Bezug auf die Methode können wesentliche Eigenschaften realisiert werden, z.B. durch ein neues Programm, neue Programme, Algorithmen oder Ähnliches. 202107831 9 Erfindungsgemäß kann vorgesehen sein, dass die Umfeldkarte ein Kartenraster enthält und die Messdaten den Zellen des Kartenrasters zugeordnet werden, wobei für jede Zelle die Anzahl von der Zelle zugeordneten Messpunkten der Messdaten, die Höhe eines von den der Zelle zugeordneten Messdaten beschriebenen Objekts, der Typ eines von den der Zelle zugeordneten Messdaten beschriebenen Objekts und/oder wenigstens eine Signaleigenschaft von der Zelle zugeordneten Messdaten angegeben wird. Beispielsweise können bei Messdaten, welche von einem Sensortyp stammen, der reflektierte Echos von ausgesendeten Signalen auswertet, als Signaleigenschaften jeweils die Anzahl der von einem Objekt aus der Zelle reflektierten Echos gespeichert werden. Bei einem Sensor dieses Typs kann es sich zum Beispiel um einen Ultraschallsensor, einen Radarsensor oder einen Lidarsensor handeln. Die Echos können dabei insbesondere jeweils einen Messpunkt darstellen. Ferner ist es möglich, dass aus den Echos bzw. Messpunkten von derartigen Sensoren auch eine Information über die Höhe des Objekts, an dem das Echo reflektiert wurde, bestimmbar ist. Eine diese Höhe des Objekts beschriebene Höheninformation kann für jeden Messpunkt oder über mehrere Messpunkte gemittelt ebenfalls den einzelnen Zellen des Kartenrasters der Umfeldkarte zugeordnet werden. Als Signaleigenschaft kann beispielsweise die Intensität von der Zelle zugeordneten Echos bzw. Messpunkten in der Umfeldkarte hinterlegt werden. Die Intensität kann dabei für die einzelnen Messpunkte oder gemittelt angegeben werden. Je nach Sensortyp können auch weitere Eigenschaften der Messdaten, insbesondere Eigenschaften, welche Rückschlüsse auf einen Objekttyp und/oder eine Detektionsgüte ermöglichen, in der Umfeldkarte eingetragen werden. Weiterhin kann auch der Typ eines durch die Messdaten für die jeweilige Zelle beschriebenen Objekts in der Umfeldkarte angegeben bzw. den einzelnen Zellen zugeordnet werden. Der Typ eines Objekts kann aus den Messdaten, beispielsweise aus über eine Umfeldkamera gewonnenen Messdaten, ermittelt werden. Auf diese Weise können auch Objekte, welche über Ultraschall-, Radar- 202107831 10 oder Lidarsensoren nicht oder nur schlecht erfassbar sind, wie zum Beispiel Fahrbahn- oder Parkplatzmarkierungen, in der Umfeldkarte eingetragen werden. Diese Informationen werden dabei insbesondere denjenigen Zellen zugeordnet, deren Position mit der über die Sensoreinrichtung ermittelten Objektposition entspricht. Insbesondere können Zellen der Umfeldkarte, welche einem nicht von einem Objekt blockiertem Raumabschnitt im Umfeld des Fahrzeugs entsprechen, keine Messdaten zugeordnet werden, sodass diese frei bleiben. Erfindungsgemäß kann vorgesehen sein, dass das neuronale Netz dazu eingerichtet ist, die Umfeldkarte mit einem mehrere Zellen umfassenden Auswertungsraster zu überlagern, wobei jeder Zelle wenigstens ein Rahmen zugewiesen ist, wobei in der Parkinformation für jeden der Rahmen eine Klassifizierung als Parklücke und/oder eine Orientierung einer durch die Messdaten beschriebenen und dem Rahmen zugeordneten Parklücke relativ zu dem Fahrzeug angegeben wird. Der Rahmen, welcher auch als Box bezeichnet werden kann, weist dabei insbesondere eine rechteckige Form auf. Es ist möglich, dass die Rahmen mehrerer Zellen des Auswertungsrasters jeweils bezüglich der Zellen gleich positioniert und/oder ausgerichtet sind. Die Rahmen stellen jeweils Initialannahmen für mögliche Parklücken dar, welchen durch das neuronale Netz jeweils eine Klassifizierungsangabe, zum Beispiel eine Klassifizierungswahrscheinlichkeit, für eine Klassifizierung als Parklücke zugeordnet werden kann. Dies ermöglicht ebenfalls eine zumindest grundlegende Lokalisierung möglicher Parklücken in der Umfeldkarte. Ferner können zumindest für als Parklücken klassifizierte Rahmen weiterhin zusätzliche Eigenschaften, welche die genaue Positionierung und Orientierung der Parklücke und/oder deren jeweilige Breite und Länge beschrieben, mittels Regression durch das neuronale Netzwerk ermittelt werden. In einer bevorzugten Ausgestaltung der Erfindung kann vorgesehen sein, dass ein Auswertungsraster verwendet wird, in dem jeder Zelle mehrere unterschiedlich 202107831 11 positionierte und/oder unterschiedlich orientierte Rahmen zugeordnet sind. Die Rahmen können dabei beispielsweise zwei um 90° gegeneinander verdreht angeordnete, rechteckige Rahmen sein. Dies vereinfacht die Ermittlung der relativen Ausrichtung der Parklücke zum Fahrzeug, da initial von dem Rahmen ausgegangen werden kann, welcher bereits die größere Übereinstimmung mit einer durch die Umfeldkarte beschriebenen Parklücke bzw. die höhere Klassifizierungswahrscheinlichkeit aufweist. Es ist auch möglich, dass jede Zelle des Auswertungsraters mehr als zwei Rahmen enthält und/oder dass diese in einer anderen Weise zueinander orientiert sind. Durch die Rahmen kann die Orientierung der Parklücke ermittelt werden bzw. es können durch mehrere unterschiedlich positionierte und/oder unterschiedlich orientierte Rahmen Lokalisierungs- und/oder Orientierungsparameter ermittelt werden. Je mehr Rahmen dabei herangezogen werden, desto genauer können die Lokalisierung und die Ermittlung der relativen Anordnung der Parklücke in Bezug zu dem Fahrzeug erfolgen. Erfindungsgemäß kann vorgesehen sein, dass die Parkinformation für zumindest einen Teil der klassifizierten Parklücken zusätzlich eine Positionsinformation enthält, wobei die Positionsinformation eine der jeweiligen Parklücke zugeordnete und innerhalb der Parklücke liegende Zielposition für das Fahrzeug beschreibt. Durch die Positionsinformation kann berücksichtigt werden, dass die Parklücke in der Regel größer ist, d.h. mehr Parkfläche bietet, als von dem Fahrzeug nach dem Einparken eingenommen wird. Die Zielposition kann daher insbesondere vollständig innerhalb der Parklücke liegen und dabei beispielsweise zu den Rändern bzw. Kanten der Parklücke einen vorgegebenen Sicherheitsabstand einhalten. Die Zielposition kann zum Beispiel ebenfalls durch ein Rechteck beschrieben werden, welches eine geringere Kantenlänge als die Parklücke aufweist und/oder gegenüber der Parklücke um einen Winkel verdreht ist. Vorteilhaft kann die Positionsinformation ebenfalls mithilfe des faltenden neuronalen Netzes, insbesondere ebenfalls mittels Regression, ermittelt werden. In einer bevorzugten Ausgestaltung der Erfindung kann vorgesehen sein, dass die Klassifizierung der Parklücke eine Klassifizierung als Querparklücke und als 202107831 12 Längsparklücke umfasst. Neben der Auswertung der Umfeldkarte kann auch die Ermittlung der relativen Anordnung einer Parklücke zum Fahrzeug vorteilhaft dazu verwendet werden, um eine Parklücke als Querparklücke und/oder als Längsparklücke zu klassifizieren. Dabei beschreibt eine Längsparklücke eine Parklücke, in die längs zu Fahrtrichtung einer Straße, auf der sich das Fahrzeug befindet, geparkt werden kann. Entsprechend bezeichnet eine Querparklücke, eine Parklücke, in welcher das Fahrzeug quer zu Fahrtrichtung einer Straße, auf der sich das Fahrzeug befindet, geparkt werden kann. Eine Unterscheidung zwischen einer Querparklücke und einer Längsparklücke kann zum Beispiel durch das Bereitstellen zweier rechteckiger und gegeneinander um 90° verdrehter Rahmen im Auswerteraster erfolgen. In einer bevorzugten Ausgestaltung der Erfindung kann vorgesehen sein, dass eine Sensoreinrichtung verwendet wird, welche als wenigstens einen Umfeldsensor wenigstens einen Ultraschallsensor, wenigstens einen Lidarsensor, wenigstens einen Radarsensor und/oder wenigstens eine Umfeldkamera umfasst. Die Sensoreirichtung kann insbesondere mehrere der vorgenannten Sensortypen und/oder Kombinationen der vorgenannten Sensortypen umfassen. Die jeweiligen Messdaten von verschiedenen Sensoren können insbesondere in derselben Umfeldkarte eingetragen bzw. zusammengeführt werden. Weiterhin betrifft die Erfindung ein Verfahren zum Trainieren eines faltenden neuronalen Netzes, umfassend die Schritte: - Bereitstellen wenigstens eines Trainingsdatensatzes umfassend mehrere jeweils das Umfeld des Fahrzeugs beschreibende Trainings-Umfeldkarten aus Trainings-Messdaten, wobei die Trainings-Messdaten in der Trainings- Umfeldkarte räumlich in Bezug zu einem Fahrzeug angegeben sind, - Zuweisen einer wenigstens eine Parklücke in dem Umfeld des Fahrzeugs beschreibenden Grundwahrheit jeder der Trainings-Umfeldkarten, wobei die Grundwahrheit zumindest einen Abschnitt der Trainings-Umfeldkarte als eine Parklücke klassifiziert und lokalisiert, wobei die Grundwahrheit die relative Orientierung der Parklücke zu dem Fahrzeug angibt, 202107831 13 - Überlagern der Trainings-Umfeldkarten jeweils mit einem mehrere Zellen umfassenden Auswertungsraster, wobei jeder Zelle des Auswertungsrasters wenigstens ein Rahmen zugewiesen ist, - Ermitteln des jeweiligen Rahmens mit dem größten Überlapp zu der wenigstens einen, durch die Grundwahrheit beschriebenen Parklücke, und - Optimieren des neuronalen Netzes hinsichtlich einer Übereinstimmung in der relativen Anordnung zwischen dem jeweiligen Rahmen mit dem größten Überlapp und der durch die Grundwahrheit beschriebenen Parklücke. Das erfindungsgemäße Verfahren zum Trainieren eines faltenden neuronalen Netzes kann insbesondere zum Trainieren eines in einem erfindungsgemäßen Verfahren zum Ermitteln einer wenigstens eine Parklücke beschreibenden Parkinformation eingesetzten neuronalen Netz verwendet werden. Durch das Training können die internen Parameter des neuronalen Netzes angepasst werden, sodass dieses für die Auswertung der aus den Messdaten erstellten Umfeldkarten gemäß dem erfindungsgemäßen Verfahren zum Ermitteln einer wenigstens eine Parklücke beschreibenden Parkinformation eingerichtet bzw. ausgebildet werden kann. Das Erstellen der Trainings-Umfeldkarten aus den Trainings-Messdaten erfolgt insbesondere analog zu dem Erstellen der Umfeldkarten aus den Messdaten, so wie es vorangehend beschrieben wurde. Die Trainings-Messdaten sind in den Trainings-Umfeldkarte jeweils in Bezug zu der Position eines Fahrzeugs angegeben. Die Trainings-Messdaten können beispielsweise mittels einer wenigstens einen Umfeldsensor umfassenden Sensoreinrichtung eines Fahrzeugs zu einem früheren Zeitpunkt ermittelt worden sein und anschließend für das Training herangezogen werden. Alternativ können auch auf andere Weise erstellte und/oder berechnete Trainings-Messdaten verwendet werden. Den Trainings-Umfeldkarten wird anschließend jeweils eine Grundwahrheit zugewiesen, wobei die Grundwahrheit eine oder mehrere Parklücken in der Umfeldkarte beschreibt. Zusätzlich gibt die Grundwahrheit auch den Ort für die Lokalisierung der Parklücke sowie die relative Orientierung der Parklücke zu dem 202107831 14 in der Umfeldkarte beschriebenen Fahrzeug an. Die Grundwahrheit stellt dabei das Ergebnis dar, auf das die Auswertung des neuronalen Netzes beim Training hin optimiert wird. Die Trainings-Umfeldkarten werden anschließend während des Trainings jeweils mit einem mehrere Zellen umfassenden Auswerteraster, welches in Bezug zu dem Training des neuronalen Netzes auch als Trainings-Auswerteraster bezeichnet werden kann, überlagert. Den Zellen des Auswerterasters ist dabei wenigstens ein Rahmen bzw. wenigstens eine Box zugewiesen. Diese stellen Initial-Annahmen für mögliche Parklücken dar. Danach wird aus der Mehrzahl an Rahmen im Auswerteraster derjenige Rahmen ausgewählt, der jeweils den größten Überlapp mit einer durch die Grundwahrheit beschriebenen Parklücke hat. Dabei wird insbesondere für jede in der Grundwahrheit beschriebene Parklücke der Rahmen mit dem jeweils größten Überlapp bestimmt. Der Überlapp bzw. die Überlappung kann auch als Intersection Over Union (IoU) bezeichnet werden und gibt an, zu welchem Anteil jeder der Rahmen im Auswerteraster mit einer der durch die Grundwahrheit beschriebenen Parklücken überlappt. Nach dem Ermitteln der ein oder mehr Rahmen mit dem jeweils größten Überlapp zu einer oder mehrerer durch die Grundwahrheit beschriebener Parklücken erfolgt eine Optimierung des neuronalen Netzes hinsichtlich einer Übereinstimmung in der relativen Anordnung zwischen dem jeweiligen Rahmen mit dem größten Überlapp und der durch die Grundwahrheit beschriebenen, dem Rahmen zugeordneten Parklücke. Auf diese Weise kann das neuronale Netz effizient für die Erkennung von Parklücken in Umfeldkarten trainiert werden, insbesondere für einen Einsatz in einem erfindungsgemäßen Verfahren zur Ermittlung einer wenigstens eine Parklücke beschreibenden Parkinformation. Erfindungsgemäß kann vorgesehen sein, dass für das Ermitteln des Überlapps bestimmt wird, in welcher Zelle jeweils der Mittelpunkt der wenigstens einen durch die Grundwahrheit beschriebenen Parklücke liegt, wobei derjenige Rahmen dieser 202107831 15 Zelle als Rahmen mit dem größten Überlapp gewählt wird, dessen flächenbezogene Überschneidung mit der durch die Grundwahrheit beschriebenen Parklücke am größten ist. Wenn zunächst ermittelt wird, in welcher Zelle des Auswerterasters der Mittelpunkt der oder einer durch die Grundwahrheit beschriebenen Parklücke liegt, kann die Anzahl der Rahmen, zu der jeweils der Überlapp ermittelt wird, reduziert werden, sodass weniger Berechnungsschritte erforderlich sind und somit ein effizienteres Training möglich ist. In einer bevorzugten Ausgestaltung der Erfindung kann vorgesehen sein, dass ein Auswertungsraster verwendet wird, in dem jeder Zelle mehrere unterschiedlich positionierte und/oder unterschiedlich orientierte Rahmen zugeordnet sind und/oder dass die Klassifizierung der Parklücke eine Klassifizierung als Querparklücke und als Längsparklücke umfasst. Analog zu der Ermittlung der wenigstens eine Parklücke beschreibenden Parkinformation können auch beim Training mehrere Rahmen pro Zelle des Auswerterasters verwendet werden. Diese Rahmen können jeweils insbesondere rechteckig sein und an unterschiedlichen Positionen und/oder mit unterschiedlichen Orientierungen zu den Karten einer rechteckigen Zelle des Auswerterasters angeordnet sein. Diese Rahmen können zum Beispiel dafür verwendet werden, eine Unterscheidung zwischen einer Querparklücke und einer Längsparklücke vorzunehmen und somit das neuronale Netz auch hinsichtlich einer entsprechenden Klassifizierung bzw. Unterscheidung zu trainieren. Erfindungsgemäß kann vorgesehen sein, dass die Grundwahrheit für die wenigstens eine durch die Grundwahrheit beschriebene Parklücke zusätzlich eine Positionsinformation enthält, wobei die Positionsinformation eine der jeweiligen Parklücke zugeordnete und innerhalb der Parklücke liegende Zielposition für das Fahrzeug beschreibt, wobei die Optimierung des neuronalen Netzes auch hinsichtlich der Positionsinformationen erfolgt. Auf diese Weise kann erreicht werden, dass ein Training des neuronalen Netzes auch hinsichtlich einer innerhalb der Parklücke liegenden Positionsinformation erfolgt, sodass diese ebenfalls durch das neuronale Netz bestimmt werden kann. 202107831 16 Die Erfindung betrifft weiterhin eine Sensoreinrichtung umfassend wenigstens einen Umfeldsensor und eine Recheneinrichtung, wobei die Recheneinrichtung zur Durchführung eines erfindungsgemäßen Verfahrens zum Ermitteln einer wenigstens eine Parklücke beschreibenden Parkinformation eingerichtet ist. Ferner betrifft die Erfindung ein Fahrzeug umfassend wenigstens eine erfindungsgemäße Sensoreinrichtung. Die Erfindung betrifft außerdem ein Computerprogrammprodukt umfassend Instruktionen, welche eine Recheneinrichtung dazu veranlassen, ein erfindungsgemäßes Verfahren zum Ermitteln einer wenigstens eine Parklücke beschreibenden Parkinformation auszuführen. Darüber hinaus betrifft die Erfindung ein computerlesbares Speichermedium umfassend ein erfindungsgemäßes Computerprogrammprodukt. Bei dem computerlesbaren Speichermedium kann es sich zum Beispiel um einen nichttransienten Datenträger, beispielsweise eine CD, eine DVD, eine Diskette, einen Flash-Speicher oder Ähnliches handeln. Sämtliche vorangehend für das erfindungsgemäße Verfahren zum Ermitteln einer wenigstens eine Parklücke beschreibenden Parkinformation beschriebenen Vorteile und Ausgestaltungen gelten entsprechend auch für das erfindungsgemäße Verfahren zum Trainieren eines faltenden neuronalen Netzes und umgekehrt. Ferner gelten sämtliche in Bezug zu einem der erfindungsgemäßen Verfahren beschriebenen Vorteile und Ausgestaltungen auch entsprechend für die erfindungsgemäße Sensoreinrichtung, das erfindungsgemäße Fahrzeug, das erfindungsgemäße Computerprogrammprodukt sowie das erfindungsgemäße computerlesbare Speichermedium und umgekehrt. 202107831 17 Weitere Vorteile und Einzelheiten der Erfindung ergeben sich aus den im Folgenden beschriebenen Ausführungsbeispielen sowie anhand der Zeichnungen. Diese sind schematische Darstellungen und zeigen: Fig.1 ein Ausführungsbeispiel eines erfindungsgemäßen Fahrzeugs umfassend ein Ausführungsbeispiel einer erfindungsgemäßen Sensoreinrichtung, Fig.2 eine Darstellung einer Umfeldkarte zur Erläuterung eines Ausführungsbeispiels eines erfindungsgemäßen Verfahrens zur Ermittlung einer wenigstens eine Parklücke beschreibenden Parkinformation und Fig.3 eine Darstellung einer mit einem Auswerteraster überlagerten Umfeldkarte zur Erläuterung des Ausführungsbeispiels eines erfindungsgemäßen Verfahrens zur Ermittlung einer wenigstens eine Parklücke beschreibenden Parkinformation sowie eines Ausführungsbeispiels zum Trainieren eines neuronalen Netzes. In Figur 1 ist ein Ausführungsbeispiel eines erfindungsgemäßen Fahrzeugs 1 gezeigt. Bei dem Fahrzeug 1 kann es sich beispielsweise um ein Kraftfahrzeug wie einen Personenkraftwagen oder einen Lastkraftwagen handeln. Weiterhin kann das Fahrzeug 1 auch ein Fahrzeuggespann sein, welches beispielsweise ein Zugfahrzeug sowie einen oder mehrere Anhänger aufweist. Alternativ kann das Verfahren auch bei weiteren Typen von Fahrzeugen eingesetzt werden. Das Fahrzeug 1 umfasst eine Sensoreinrichtung 2, welche mehrere Umfeldsensoren 3 sowie eine Recheneinrichtung 4 aufweist. Die Umfeldsensoren 3 der Sensoreinrichtung 2 sind beispielsweise als Ultraschallsensoren ausgeführt. Zusätzlich oder alternativ dazu kann zumindest ein Teil der Umfeldsensoren 3 auch als Umfeldkamera, als Radarsensor und/oder als Lidarsensor ausgebildet sein. Die Rechnereinrichtung 4 der Sensoreinrichtung 2 ist im vorliegenden Ausführungsbeispiel als ein Teil des Fahrzeugs 1 dargestellt. Es ist möglich, dass die Recheneinrichtung 4 in einen der Umfeldsensoren 3 integriert ist oder dass es 202107831 18 sich um eine fahrzeugexterne Recheneinrichtung handelt. Eine fahrzeugexterne Recheneinrichtung kann dabei über eine insbesondere drahtlose Kommunikationsverbindung mit den Umfeldsensoren 3 und/oder weiteren Einrichtungen des Fahrzeugs 1 kommunizieren. Mittels der Umfeldsensoren 3 können Messdaten aus dem Umfeld des Fahrzeugs 1 ermittelt werden. Die Messdaten beschreiben Objekte, welche sich im Umfeld des Fahrzeugs 1 befinden. Bei den Objekten kann es sich beispielsweise um andere Verkehrsteilnehmer wie weitere Fahrzeuge o. ä. handeln. Weiterhin können als Objekte auch unbewegliche Objekte, beispielsweise Infrastrukturobjekte, Teile von Gebäuden o. ä. erfasst werden. Die Recheneinrichtung 4 der Sensoreinrichtung 2 ist dazu ausgebildet, ein Verfahren zum Ermitteln einer wenigstens eine Parklücke im Umfeld des Fahrzeugs 1 beschreibenden Parkinformation durchzuführen. In Abhängigkeit der Parkinformation kann beispielsweise eine automatisierte oder teilautomatisierte Steuerung eines Einparkvorgangs des Fahrzeugs 1 erfolgen, insbesondere durch Ansteuerung wenigstens eines Aktors (nicht dargestellt) des Fahrzeugs 1. Das Fahrzeug 1 kann sich bei dem Einparkvorgang vorwärts und/oder rückwärts bewegen, Lenkbewegungen ausführen und insbesondere auch mehrere Teilbewegungen bzw. Züge ausführen. Der Einparkvorgang kann dabei insbesondere derart ausgeführt werden, dass das Fahrzeug in wenigstens einer durch die Parkinformation beschriebenen Parklücke positioniert wird. Zusätzlich oder alternativ zu dem Aktor kann auch eine Anzeigevorrichtung (nicht dargestellt) des Fahrzeugs 1 angesteuert werden, sodass beispielsweise einem Fahrer des Fahrzeugs 1 die im Umfeld des Fahrzeugs ermittelten Parklücken, beispielsweise durch eine entsprechende bildliche Darstellung, kenntlich gemacht werden können. Die Anzeigevorrichtung kann dabei beispielsweise ein in einem Innenraum des Fahrzeugs 1 angeordnetes Display, ein Heads-Up-Display, ein virtueller Seitenspiegel oder Ähnliches sein. Die Darstellung auf der Anzeigevorrichtung kann beispielsweise dazu verwendet werden, um dem Fahrer die Auswahl einer von mehreren ermittelten Parklücken als Zielort eines Einparkvorgangs zu ermöglichen. Zusätzlich oder alternativ dazu 202107831 19 können Hilfsmittel für eine Bewegung des Fahrzeugs 1 in eine ermittelte und/oder ausgewählte Parklücke auf der Anzeigevorrichtung angezeigt werden, die es dem Fahrer ermöglichen, das Fahrzeug 1 in diese Parklücke zu bewegen. Zum Ermitteln der Parkinformation mit der Recheneinrichtung 4 bzw. zum Ermitteln der Parkinformation in einem computerimplementierten Verfahren werden zunächst das Umfeld bzw. die Umgebung des Fahrzeugs 1 beschreibende Messdaten mit einem oder mehreren der Umfeldsensoren 3 ermittelt, wobei die Messdaten einem oder mehreren Objekten im Umfeld des Fahrzeugs 1 zugeordnet sind. Anschließend erfolgt das Erstellen wenigstens einer das Umfeld des Fahrzeugs 1 beschreibenden Umfeldkarte 5 aus den Messdaten, wobei die Messdaten in der Umfeldkarte 5 räumlich in Bezug zu dem Fahrzeug 1 angegeben sind. In Fig.2 ist ein Ausführungsbeispiel einer solchen Umfeldkarte 5 dargestellt. Die Umfeldkarte 5 ist eine rechteckige Karte, bei der das Fahrzeug 1 in der Mitte angeordnet ist. In der Umfeldkarte 5 sind die Messdaten räumlich in Bezug zu dem Fahrzeug 1 angegeben. Die Messdaten sind vorliegend als Messpunkte 6 dargestellt, welche zum Beispiel durch als Ultraschallsensoren ausgebildete Umfeldsensoren 3 ermittelt werden können. Die Messpunkte 6 der Messdaten beschreiben dabei jeweils ein Signalecho, welches von einem Objekt im Umfeld des Fahrzeugs 1 reflektiert wurde. Die einzelnen Messpunkte 6 umfassen jeweils eine Entfernungsmessung in Bezug zu dem Fahrzeug 1, welche beispielsweise aus einer Laufzeitmessung erfolgen kann. Zusätzlich kann für jeden der Messpunkte 6 auch eine Richtung bestimmt werden, sodass die den Messpunkte 6 zugeordneten Reflexionsorte bzw. die Objekte in räumlichen Bezug zu dem Fahrzeug 1 gesetzt werden können. Die Umfeldkarte 5 umfasst weiterhin ein Kartenraster 7, wobei die Messdaten den einzelnen Zellen 8 des Kartenrasters 7 zugeordnet sind. Für jede der Zellen 8 kann beispielsweise die Anzahl von der Zelle 8 zugeordneten Messpunkten 6 der Messdaten ermittelt und in der Umfeldkarte 5 hinterlegt werden. Weiterhin können zu den einzelnen Zellen 8 auch jeweils die Höhe eines von den der Zelle 8 zugeordneten Messdaten beschriebenen Objekts, der Typ eines solchen Objekts 202107831 20 und/oder wenigstens eine weitere Signaleigenschaft der der Zelle zugeordneten Messdaten angegeben werden. Bei der Signaleigenschaft kann es sich zum Beispiel um die Intensität der einzelnen Messpunkte 6 handeln. Dabei ist es möglich, dass eine Signaleigenschaft wie die Intensität zum Beispiel gemittelt für alle Messpunkte einer der Zellen 8 angegeben wird. Dies kann entsprechend auch bei Informationen bezüglich der Höhe eines Objekts und/oder des Typs eines Objekts erfolgen.. Neben den Messpunkten 6 von als Ultraschallsensoren ausgebildeten Umfeldsensoren 2 können auch Messpunkte 6 von als Radarsensoren und/oder Lidarsensoren ausgebildeten Umfeldsensoren 3 entsprechend in die Umfeldkarte 5 eingetragen werden. Weiterhin können auch über andere Typen von Sensoren, beispielsweise als Umfeldkameras ausgebildete Umfeldsensoren 3, ermittelte Objekte in der Umfeldkarte 5 eingetragen werden. Auf diese Weise können auch Objekte wie beispielsweise Fahrbahnmarkierungen, Parkplatzmarkierungen oder ähnliches in der Umfeldkarte 5 eingetragen werden. Anschließend erfolgt das Auswerten der wenigstens einen Umfeldkarte 5 durch die Recheneinrichtung 4, wobei die Umfeldkarte 5 einem durch die Recheneinrichtung 4 realisierten faltenden neuronalen Netzwerk zugeführt wird, wobei das neuronale Netzwerk aus der Umfeldkarte 5 im Umfeld des Fahrzeugs 1 vorhandene Parklücken 9 klassifiziert und lokalisiert, wobei das neuronale Netz mittels Regression jeweils die relative Anordnung der Parklücken 9 zu dem Fahrzeug 1 ermittelt. Aus den klassifizierten Parklücken 9 und ihrer relativen Anordnung zu dem Fahrzeug 1 erzeugt die Recheneinrichtung 4 oder eine weitere Recheneinrichtung (nicht dargestellt) anschließend die wenigstens eine Parklücke 9 im Umfeld des Fahrzeugs 1 beschreibende Parkinformation. Vorteilhaft kann dabei die Umfeldkarte 5 wie eine zweidimensionale Bilddatei durch das neuronale Netz verarbeitet werden. Das neuronale Netz ist dazu eingerichtet ist, die Umfeldkarte 5 mit einem mehrere Zellen 10 umfassenden Auswerteraster 11 zu überlagern, wobei jeder Zelle 10 202107831 21 wenigstens ein Rahmen 12 zugewiesen ist. Eine mit einem Auswerteraster 11 überlagerte Umfeldkarte 5 ist in Fig.3 dargestellt. Vorliegend umfasst jede Zelle 10 zwei jeweils rechteckige Rahmen 12, 13, welche um 90° verdreht angeordnet sind. Die Rahmen 12, 13 sind bezüglich der Zelle 10 somit unterschiedlich orientiert. Es ist möglich, dass den Zellen 10 jeweils auch noch weitere Rahmen (nicht dargestellt) zugeordnet werden, welche beispielsweise die gleiche Orientierung wie einer der Rahmen 12, 13 aufweisen, jedoch entlang einer der Kanten der Zelle 10 in x-Richtung und/oder in y-Richtung versetzt angeordnet sind. In der Parkinformation wird für jeden der Rahmen 12, 13 aller Zellen 10 des Auswerterasters 11 eine Klassifizierung als Parklücke und/oder eine Orientierung einer durch die Messdaten beschriebenen und dem Rahmen 12, 13 zugeordneten Parklücke 9 relativ zu dem Fahrzeug 1 angegeben. Dies ermöglicht es, dass die Klassifizierung der Parklücke 9 eine Klassifizierung als Querparklücke und als Längsparklücke umfasst. Eine Parklücke 9 kann als solche klassifiziert werden, wenn eine von dem neuronalen Netz ermittelte Klassifizierungswahrscheinlichkeit über einem vorgegebenen Grenzwert liegt. Entsprechend kann eine Parklücke als Längsparklücke oder als Querparklücke klassifiziert werden, wenn die entsprechende, einem der Rahmen 12, 13 zugeordnete Klassifizierungswahrscheinlichkeit über einem vorgegebenen Grenzwert liegt. Das neuronale Netz ermittelt zumindest für die als Parklücke 9 klassifizierten Rahmen 12, 13 zusätzlich mittels Regression jeweils die relative Anordnung der Parklücke 9 zu dem Fahrzeug 1. Auf diese Weise wird eine genaue Lokalisierung der Parklücke 9 in Bezug zu dem Fahrzeug 1 ermittelt. Ferner können auf diese Weise unterschiedliche Ausrichtungen der Parklücken bzw. unterschiedliche relative Anordnungen zwischen Fahrzeug 1 und einer ermittelten Parklücke 9 berücksichtigt werden. Die aus der Ausgabe des neuronalen Netzes abgeleitete Parkinformation kann für zumindest einen Teil der erkannten Parklücken 9 zusätzlich eine 202107831 22 Positionsinformation enthalten, wobei die Positionsinformation eine der jeweiligen Parklücke 9 zugeordnete und innerhalb der Parklücke 9 liegende Zielposition für das Fahrzeug 1 beschreibt. Die erzeugte Parkinformation kann zum Beispiel ein Tensor sein, welcher für jeden der Rahmen 12, 13 angibt, ob es sich um eine Parklücke 9 handelt oder nicht bzw. ob es sich um eine Querparklücke oder eine Längsparklücke handelt. Für jeden als Parklücke 9 klassifizierten Rahmen 12, 13 können weitere Informationen angegeben werden. Für jede Zelle 10 des Auswerterasters 11 kann die Parkinformation dabei beispielsweise einen Vektor ^^^^^ enthalten, welcher als
Figure imgf000024_0001
ausgedrückt werden kann. Dabei sind die dem Rahmen 12 zugeordneten Werte beispielsweise mit dem Index „1“ und die dem Rahmen 13 zugeordneten, größtenteils aus Übersichtsgründen nicht dargestellten Werte mit dem Index „2“ gekennzeichnet. Bei den einzelnen Werten bzw. Komponenten des Vektors beschreiben: P: einen Indikator (z.B.0 oder 1), ob es sich bei dem entsprechenden Rahmen 12, 13 um eine Parklücke 9 handelt, bx, by: die Koordinaten in x-Richtung und y-Richtung eines Mittelpunkts der ermittelten Parklücke 9, zum Beispiel als Prozentangabe bezogen auf die Größe der Zelle 10 ausgehend von der jeweils unteren linken Ecke, bw, bh: die Breite und die Höhe der ermittelten Parklücke 9, angegeben beispielsweise als Prozentangabe in Bezug zu der Breite und der Höhe der Zelle 10 des Auswerterasters 11, bθ: Winkel bzw. Verdrehung der Parklücke 9 in Bezug zu der Zelle 10, tx, ty: Koordinaten eines Mittelpunkts einer Zielposition innerhalb der ermittelten Parklücke 9, angegeben zum Beispiel als Prozentangabe in Bezug zu der Zelle 10 und relativ zu deren Mittelpunkt, 202107831 23 tθ: Winkel der Zielposition, angegeben zum Beispiel in Bezug zu der ermittelten Parklücke 9. Cpar, Cperp, Cvoid: Die Klassenwahrscheinlichkeiten für das Vorliegen einer Längsparklücke (Cpar), für das Vorliegen einer Querparklücke (Cperp) und für das Vorliegen keiner Parklücke (Cvoid). Der Indikator P kann zum Beispiel auf eins gesetzt werden, wenn eine der Wahrscheinlichkeiten Cpar oder Cperp oberhalb eines vorgegebenen Grenzwerts liegt, bzw. auf null gesetzt werden, wenn die Wahrscheinlichkeit Cvoid oberhalb eines vorgegebenen Grenzwerts liegt. Die Angaben tx, ty und tθ bilden eine Positionsinformation, welche die der jeweiligen Parklücke zugeordnete und innerhalb der Parklücke liegende Zielposition für das Fahrzeug 1 beschreibt. Die beispielsweise in Form eines Tensors ausgegebene Parkinformation weist dabei eine Dimensionalität von ^ × ^ × (^^^^^) bzw. von ^ × ^ × (" ∗ $) auf, wobei A und B die Anzahl der Zeilen und Spalten des Auswerterasters darstellen und ihr Produkt somit die Anzahl der Zellen im Auswerteraster angibt und ^^^^^ der jeweils einer Zelle zugeordnete Vektor ist, welcher allgemein " ∗ $ Komponenten aufweist, wobei " die Anzahl der Rahmen pro Zelle und $ die Anzahl der pro Rahmen in der Zelle ermittelten Informationen beschreibt. Im obigen Beispiel für ^^^^^ ist " = 2 und $ = 12. In einem Ausführungsbeispiel für ein Verfahren zum Trainieren des faltenden neuronalen Netzes wird zunächst wenigstens ein Trainingsdatensatz umfassend mehrere jeweils das Umfeld des Fahrzeugs 1 beschreibenden Trainings- Umfeldkarten aus Trainings-Messdaten bereitgestellt. Dabei sind die Messdaten in der Trainings-Umfeldkarte räumlich in Bezug zu einem Fahrzeug 1 angegeben. Das Trainingsverfahren dient insbesondere dazu, das in der Recheneinrichtung 4 realisierte faltende neuronale Netz zur Durchführung des vorangehend beschriebenen Ausführungsbeispiels zu trainieren. 202107831 24 Jeder der Trainings-Umfeldkarten wird eine wenigstens eine Parklücke 14 in dem Umfeld des Fahrzeugs 1 beschreibende Grundwahrheit zugewiesen, wobei die Grundwahrheit zumindest einen Abschnitt der Trainings-Umfeldkarte als eine Parklücke 14 klassifiziert und lokalisiert. Außerdem gibt die Grundwahrheit die relative Orientierung der Parklücke 14 zu dem Fahrzeug an. In Fig.3 ist eine durch die Grundwahrheit vorgegebene Parklücke 14 dargestellt. Die Trainings- Umfeldkarten entsprechen grundsätzlich den Umfeldkarten 5, so wie sie vorangehend beschrieben wurden. Auch beim Training werden die Trainings-Umfeldkarten, wie vorangehend beschrieben wurde und wie in Fig.3 gezeigt ist, jeweils mit einem mehrere Zellen 10 umfassenden Auswerteraster 11 überlagert, wobei jeder der Zellen 10 des Auswerterasters 11 entsprechend wenigstens ein Rahmen 12, 13 zugewiesen ist. Anschließend erfolgt das Ermitteln des jeweiligen Rahmens 12, 13 mit dem größten Überlapp zu der wenigstens einen, durch die Grundwahrheit beschriebenen Parklücke 14. Dann wird das neuronale Netz hinsichtlich einer Übereinstimmung in der relativen Anordnung zwischen dem jeweiligen Rahmen 12, 13 mit dem größten Überlapp und der durch die Grundwahrheit beschriebenen Parklücke 14 optimiert. Für das Ermitteln des Überlapps wird bestimmt, in welcher der Zellen 10 des Auswerterasters 11 jeweils der Mittelpunkt 15 der wenigstens einen durch die Grundwahrheit beschriebenen Parklücke 14 liegt. Dies ist in dem in Fig.3 dargestellten Beispiel die Zelle 10, welche in der zweiten Zeile und der fünften Spalte liegt. Anschließend wird derjenige Rahmen 12, 13 in dieser Zelle als Rahmen mit dem größten Überlapp gewählt wird, dessen Überschneidung mit der durch die Grundwahrheit beschriebenen Parklücke 14 am größten ist. Zum Ermitteln des jeweiligen Überlapps wird für jeden der Rahmen 12, 13 in der Zelle, in der der Mittelpunkt 15 liegt, jeweils ein Wert für dessen flächenbezogenen Überlapp bzw. dessen Intersection Over Union (IoU) ermittelt. 202107831 25 In dem in Fig.3 dargestellten Beispiel ist der Überlapp mit dem vertikal orientierten Rahmen 12 größer, sodass dieser als Ziel der Optimierung des neuronalen Netzwerks gewählt wird. Basierend auf der Wahl des Rahmens 12, 13 und der Anordnung des Fahrzeugs 1 in der Umfeldkarte kann entsprechend ermittelt bzw. trainiert werden, ob es sich um eine Längsparklücke oder, wie vorliegend, um eine Querparklücke handelt. Es ist möglich, dass ein Auswerteraster 11 verwendet wird, in dem jeder Zelle 10 mehr als zwei Rahmen 12, 13 zugeordnet sind. Die mehreren Rahmen 12, 13 können dabei unterschiedlich positioniert und/oder unterschiedlich orientiert sein. Unterschiedliche Abmessungen, wie eine unterschiedliche Breite, eine unterschiedliche Länge, eine unterschiedliche Lage des Mittelpunkts des Rahmens 12 und der Parklücke 14 bezogen auf die Zelle 10 sowie die relative Orientierung (Winkel θ) zwischen Rahmen 12 und der Parklücke 14, welche durch das neuronale Netz ebenfalls mittels Regression ermittelt werden, werden dabei ebenfalls trainiert. Durch die Rahmen 12, 13 kann die Orientierung der Parklücke 14 angenähert werden bzw. es können durch die Verwendung von zwei oder mehreren Rahmen 12, 13 pro Zelle 10 unterschiedlich positionierte und/oder unterschiedlich orientierte Lokalisierungs- und/oder Orientierungsparameter initial vorgegeben werden. Je mehr Rahmen 12, 13 dabei herangezogen werden, desto genauer können die Lokalisierung und die Ermittlung der relativen Anordnung der Parklücke 14 in Bezug zu dem Fahrzeug durch das neuronale Netzwerk erfolgen. Weiterhin kann die Grundwahrheit für die wenigstens eine Parklücke 14 zusätzlich eine Positionsinformation enthalten, wobei die Positionsinformation eine der jeweiligen Parklücke 14 zugeordnete und innerhalb der Parklücke liegende Zielposition für das Fahrzeug 1 beschreibt, wobei die Optimierung des neuronalen Netzes auch hinsichtlich der Positionsinformationen erfolgt. Dies kann entsprechend durch ein Trainieren der Ermittlung der Parameter ^', ^^ und ^( erfolgen. 202107831 26 Das Optimieren des neuronalen Netzes kann mithilfe einer Verlustfunktion erfolgen. Die Verlustfunktion kann dabei für alle Variablen des Vektors ^^^^^ bzw. für alle Variablen $, welche in Bezug zu einem der Rahmen 12, 13 ermittelbar sein sollen, Fehlerquadrate minimieren. Zusätzlich oder alternativ dazu kann auch eine Softmax-Funktion verwendet werden oder es können nur die Fehler der Klassenwahrscheinlichkeiten ^)*+, ^),+) und ^-.$/ und/oder der Klassifizierungswahrscheinlichkeit ^0 minimiert werden. Ein Beispiel für eine Verlustfunktion ℓ(^2, ^) ist ℓ(^2, ^) = (^2^ − ^^)^ + (^2^ − ^^)^ + ⋯ + (^20 − ^0)^, 8,"" ^^ = 1 ℓ(^2, ^) = (^2^ − ^^)^, 8,"" ^^ = 0. Wenn ^^ = 1 ist, bedeutet dies, dass der dem Index „1“ zugewiesene Rahmen 12 als eine Parklücke klassifiziert wurde. In diesem Fall wird mittels der Verlustfunktion der quadrierte Fehler jeder Variable $ d.h. jeder Komponente ^0 des Vektors ^^^^^ berechnet. Wenn ^^ = 0 ist, bedeutet dies, dass der dem Index „1“ zugewiesene Rahmen 12 als „keine Parklücke“ klassifiziert wurde, wobei in diesem Fall nur der quadrierte Fehler in dem Indikator bzw. der Klassifizierungswahrscheinlichkeit ^0, also der Komponente ^^ des Vektors ^^^^^, minimiert wird.
202107831 1 Description Method for determining a parking space using a folding neural network The invention relates to a method for determining parking information describing at least one parking space using a sensor device of a vehicle, the sensor device having at least one environment sensor and a computing device. The invention further relates to a method for training a convolutional neural network, a sensor device, a vehicle, a computer program product and a computer-readable storage medium. Modern vehicles can use environmental sensors to obtain information about various objects in the vehicle's surroundings. These objects can be, for example, other road users such as moving or stationary third-party vehicles or immovable structures such as curbs, walls, markings or the like. The information obtained in this way can be used to provide different driver assistance functions. For example, further information regarding available parking spaces in the area surrounding the vehicle can be derived from an environment description based on such object information. For this purpose, algorithms are generally used which determine free parking spaces from the objects detected in the environment and/or their arrangement according to defined rules and dependencies. The rules are defined, for example, through search tables and/or through individual case queries or if conditions. This approach has the disadvantage that creating and checking these comparatively complex and extensive rules is time-consuming and that parking space detection is basically limited to the scenarios queried by the rules. Furthermore, further development of the rules and their adaptation to different vehicles and/or different requirements for parking space determination can only be implemented with great effort. 202107831 2 So-called deep learning methods, which provide for the evaluation of the image data using artificial intelligence, are known from other areas of technology for the machine evaluation of image data or for computer-based vision. An example of such a method is that in the article by Redmon, Joseph, et al. "You only look once: Unified, real-time object detection." Proceedings of the IEEE conference on computer vision and pattern recognition (2016) describes the “You-Only-Look-Once method” (also known as the YOLO method), which uses a grid in a single neural network to achieve simultaneous classification and localization of objects in images. The neural network determines class probabilities assigned to the objects as well as the frames surrounding the objects in the image and localizing the object. The frames each surround an individual classified object, with the edges of the frames running parallel to the edges of the rectangular, evaluated image. The invention is based on the object of specifying an improved method for determining a parking space, which in particular enables improved adaptability of parking space detection to different requirements as well as improved precision in parking space detection. This object is achieved according to the invention by a method of the type mentioned at the outset, the method comprising the following steps: ^ Acquiring measurement data describing an environment of the vehicle with the at least one environment sensor, the measurement data being assigned to one or more objects in the area surrounding the vehicle, ^ Creating at least one environment map describing the environment of the vehicle from the measurement data, the measurement data in the environment map being specified spatially in relation to the vehicle, ^ Evaluating the at least one environment map by the computing device, the environment map being fed to a convolutional neural network, where the neural network classifies and locates existing parking spaces in the area surrounding the vehicle from the environment map, whereby the 202107831 3 neural network uses regression to determine the relative arrangement of the parking spaces to the vehicle, and ^ generate the parking information from the classified and localized parking spaces and their relative arrangement. The method according to the invention is based on measurement data which are determined using one or more environmental sensors of a vehicle. The measurement data describes objects in the area surrounding the vehicle. The objects can in particular be third-party vehicles, infrastructure objects, buildings or structures as well as road and/or parking lot markings. In particular, the measurement data describes objects that can generally limit parking spaces. The measurement data can be recorded using one or more different types of environmental sensors. Depending on the type of environment sensor, the measurement data can, for example, be measuring points to which a distance to the vehicle is assigned. Such measuring points can be generated, for example, using ultrasonic sensors, radar sensors or lidar sensors. In the case of a sensor designed as a camera, the measurement data as an object can describe, for example, a road or parking lot marking and its distance or arrangement relative to the vehicle. An environment map is then created from the recorded measurement data, which in particular describes the current environment of the vehicle. For this purpose, the measurement data is specified spatially in relation to the vehicle, for example in a rectangular map in which the vehicle is in the center. The measurement data can be entered, for example, in a two-dimensional map, which depicts the plane extending along the vehicle's longitudinal direction and the vehicle's transverse direction. The environment map can be generated, for example, as an occupancy map. The environment map can preferably have a spatial grid into which the measurement data is entered or to which the measurement data is assigned. 202107831 4 In this way, the environment of the vehicle described by the measurement data can be mapped on the environment map. The invention is based on the knowledge that such an environment map can be viewed as an image or that deep learning methods used for image evaluation can also be applicable to such an environment map. Accordingly, according to the invention, a convolutional neural network (CNN) is used to evaluate the environment map. This is preferably stored in the computing device of the sensor device so that the environment map can be fed to it as input data. With the help of the neural network, the environment map is evaluated with regard to parking spaces in the area surrounding the vehicle or free parking spaces in the area surrounding the vehicle. To do this, the neural network classifies and locates parking spaces in the area surrounding the vehicle based on the surrounding map. In particular, only a single convolutional neural network is used for the evaluation, which carries out both the classification and the localization of the parking spaces. In other words, the neural network carries out an image evaluation process based on the YOLO method on the environment map. It is possible for the convolutional neural network to be followed by another neural network for evaluating the output data determined by the convolutional neural network. In addition, the neural network uses regression to determine the relative arrangement of the parking spaces to the vehicle. In other words, in comparison to the classic YOLO method described at the beginning, the localization of a detected parking space is not only indicated by inserting a rectangular frame that encloses the parking space and is always aligned along the edges of the image, but instead the relative position or .the relative position and the relative orientation of the parking space to the vehicle. In the case of a rectangular parking space, for example, an angle can be determined by which the parking space is 202107831 5 is rotated relative to the vehicle. The parking space can advantageously be localized taking into account the information required for a particularly assisted or at least partially automated parking process. The parking spaces can be classified in particular by assigning a classification probability to different sections of the surrounding map. In other words, the classification can be carried out by specifying a classification probability for different sub-areas of the environment map, the classification probability indicating the probability with which the sub-section is a parking space, ie a free parking space for the vehicle. Parking information is then formed from the parking spaces classified by the neural network and their relative arrangement. For example, the parking information can contain at least the parking spaces whose classification probability is above a predetermined limit value, with the relative arrangement to the vehicle also being specified for these parking spaces. The parking information can then be used to control an actuator of the vehicle and/or a display device of the vehicle. The actuator of the vehicle can, for example, be an actuator of the vehicle designed for transverse guidance and/or longitudinal guidance. The at least one actuator can be, for example, a drive motor of the vehicle and/or a steering drive of the vehicle. Depending on the parking information, for example, automated or partially automated control of a parking process of the vehicle can take place, in particular by controlling at least one actuator of the vehicle. The vehicle can move forward and/or backward during the parking process, make steering angle changes to a set steering angle between and/or during these movements and 202107831 6 in particular also carry out several movements or pulls in different directions. The parking process can in particular be carried out in such a way that the vehicle is positioned in at least one parking space described by the parking information. In addition or as an alternative to the actuator, at least one display device of the vehicle can also be controlled, so that, for example, a driver of the vehicle can be made aware of the parking spaces determined in the area surrounding the vehicle, for example by means of a corresponding pictorial representation. The display device can be, for example, a display arranged in an interior of the vehicle, a heads-up display, a virtual side mirror and/or the like. The representation on the display device can be used, for example, to enable the driver to select one of several identified parking spaces as the destination of a parking process. Additionally or alternatively, aids such as virtual lines and markings for moving the vehicle into a determined and/or selected parking space can be displayed on the display device, which enable the driver to control a movement of the vehicle into this parking space. The vehicle can be, for example, a motor vehicle such as a passenger car or a truck. Furthermore, the vehicle can also be a vehicle combination, which has, for example, a towing vehicle and one or more trailers. Alternatively, the method can also be used on other types of vehicles. The sensor device of the vehicle can have one or more environment sensors. The surrounding sensors are arranged on the vehicle so that they can record the immediate surroundings of the vehicle. The sensor device further comprises a computing device, which can be part of the vehicle. Alternatively, it is possible for the computing direction to be a computing direction external to the vehicle, which is connected, for example, to the at least one environment sensor via a particularly wireless one 202107831 7 Communication link communicated. Parking information determined by a vehicle-external computing device can also be transmitted back to the vehicle via the communication connection, so that the previously described control of the actuator and/or the display device of the vehicle can take place depending on the parking information. The creation of the environment map from the measurement data of the at least one environment sensor can also be done by the computing device. Alternatively, this step can also be carried out by a further computing device of the vehicle and/or a further computing device external to the vehicle, with the further computing device transmitting the environment map to the computing device. The neural network used to evaluate the environment map is a convolutional neural network (CNN), which is stored in the computing device or a storage unit of the computing device. The environment map is evaluated using artificial intelligence or a deep learning method. The folding neural network is set up or trained to classify and locate existing parking spaces in the area surrounding the vehicle from the map of the surroundings and to use regression to determine the relative arrangement of the parking spaces to the vehicle. In this way, the parking space can be determined based on the surrounding map using a process that can be adapted and improved using machine learning. This makes it possible to flexibly adapt the parking space determination to different scenarios by appropriately training the neural network. This advantageously provides an easy-to-implement option for adapting the parking space determination. For the purposes of the invention, the term “machine learning” (ML) refers to the use of algorithms for analyzing training data, learning from this training data and then determining or predicting an initially unknown property of input data to be evaluated. In 202107831 8 Both controlled learning and uncontrolled learning can be used in this context. Among other things, the labeling strategy or the labeling of training data can be crucial for its analysis. The term “deep learning” (DL) in the sense of the invention includes a cascade of several layers of nonlinear processing units (usually artificial neural networks) for the extraction and transformation of features (or for the extraction and transformation of parameters). The term "artificial neural network" (ANN) or "convolutional neural network" (CNN) includes networks of artificial neurons that are connected to each other in the abstract, as in a nervous system of a living being, in terms of information processing. The neurons can be represented as nodes and their connections as edges in a diagram. The backmost (node) layer of the network is called the output layer and the "invisible" (node) layers that are at the front are called hidden layers. Such artificial neural networks can be single-layer (one output layer), two-layer (one output layer and one hidden layer to improve abstraction) or multi-layer (at least one output layer and several hidden layers to improve abstraction). In addition, with regard to their data transmission, these can be designed to be forward-facing (feedforward) and/or with backward-facing edges (recurrent connections) (feedback; feedback network). For the purposes of the invention, the term “computer-implemented method” refers to a flowchart that can be implemented and carried out on the basis of a data processor. The data processor, such as a computer, a computer network, or other programmable device, can process data using programmable calculation rules. With regard to the method, essential properties can be realized, for example through a new program, new programs, algorithms or similar. 202107831 9 According to the invention, it can be provided that the environment map contains a map grid and the measurement data are assigned to the cells of the map grid, with for each cell the number of measurement points of the measurement data assigned to the cell, the height of an object described by the measurement data assigned to the cell, the Type of an object described by the measurement data assigned to the cell and / or at least one signal property is specified by the measurement data assigned to the cell. For example, for measurement data that comes from a type of sensor that evaluates reflected echoes of emitted signals, the number of echoes reflected from an object in the cell can be stored as signal properties. A sensor of this type can be, for example, an ultrasonic sensor, a radar sensor or a lidar sensor. The echoes can in particular each represent a measuring point. Furthermore, it is possible that information about the height of the object on which the echo was reflected can also be determined from the echoes or measuring points from such sensors. Height information describing this height of the object can also be assigned to the individual cells of the map grid of the surrounding map for each measuring point or averaged over several measuring points. For example, the intensity of the echoes or measuring points assigned to the cell can be stored in the environment map as a signal property. The intensity can be specified for the individual measuring points or averaged. Depending on the sensor type, further properties of the measurement data, in particular properties that enable conclusions to be drawn about an object type and/or a detection quality, can also be entered in the environment map. Furthermore, the type of an object described by the measurement data for the respective cell can also be specified in the environment map or assigned to the individual cells. The type of an object can be determined from the measurement data, for example from measurement data obtained via an environmental camera. In this way, objects that can be detected via ultrasound, radar 202107831 10 or lidar sensors cannot be detected or can only be detected with difficulty, such as road or parking lot markings, are entered in the surrounding map. This information is assigned in particular to those cells whose position corresponds to the object position determined via the sensor device. In particular, no measurement data can be assigned to cells of the environment map that correspond to a section of space in the area surrounding the vehicle that is not blocked by an object, so that they remain free. According to the invention, it can be provided that the neural network is set up to overlay the environment map with an evaluation grid comprising several cells, with each cell being assigned at least one frame, with a classification as a parking space and / or an orientation in the parking information for each of the frames a parking space described by the measurement data and assigned to the frame is specified relative to the vehicle. The frame, which can also be referred to as a box, has in particular a rectangular shape. It is possible for the frames of several cells of the evaluation grid to be positioned and/or aligned in the same way with respect to the cells. The frames each represent initial assumptions for possible parking spaces, to which a classification information, for example a classification probability, for classification as a parking space can be assigned by the neural network. This also enables at least a basic localization of possible parking spaces in the surrounding map. Furthermore, at least for frames classified as parking spaces, additional properties that describe the exact positioning and orientation of the parking space and/or their respective width and length can be determined by means of regression by the neural network. In a preferred embodiment of the invention, it can be provided that an evaluation grid is used in which each cell has several different ones 202107831 11 positioned and/or differently oriented frames are assigned. The frames can, for example, be two rectangular frames arranged rotated by 90° relative to one another. This simplifies the determination of the relative alignment of the parking space to the vehicle, since it can initially be assumed that the frame already corresponds more closely to a parking space described by the surrounding map or has a higher probability of classification. It is also possible that each cell of the evaluation rater contains more than two frames and/or that they are oriented in a different way to one another. The orientation of the parking space can be determined by the frames or localization and/or orientation parameters can be determined by several differently positioned and/or differently oriented frames. The more frames are used, the more precisely the localization and determination of the relative arrangement of the parking space in relation to the vehicle can be carried out. According to the invention, it can be provided that the parking information for at least some of the classified parking spaces additionally contains position information, the position information describing a target position for the vehicle that is assigned to the respective parking space and lies within the parking space. The position information can be used to take into account that the parking space is generally larger, that is, it offers more parking space than is occupied by the vehicle after parking. The target position can therefore in particular lie completely within the parking space and, for example, maintain a predetermined safety distance from the edges or edges of the parking space. The target position can also be described, for example, by a rectangle which has a shorter edge length than the parking space and/or is rotated at an angle relative to the parking space. The position information can also advantageously be determined using the convolutional neural network, in particular also using regression. In a preferred embodiment of the invention it can be provided that the classification of the parking space is a classification as a perpendicular parking space and as 202107831 12 parallel parking space included. In addition to evaluating the environment map, the determination of the relative arrangement of a parking space to the vehicle can also be advantageously used to classify a parking space as a perpendicular parking space and/or as a parallel parking space. A parallel parking space describes a parking space in which you can park alongside the direction of travel of a street on which the vehicle is located. Accordingly, a transverse parking space refers to a parking space in which the vehicle can be parked perpendicular to the direction of travel of a street on which the vehicle is located. A distinction between a perpendicular parking space and a parallel parking space can be made, for example, by providing two rectangular frames rotated by 90° relative to each other in the evaluation grid. In a preferred embodiment of the invention, it can be provided that a sensor device is used which comprises at least one ultrasonic sensor, at least one lidar sensor, at least one radar sensor and/or at least one surroundings camera as at least one environment sensor. The sensor device can in particular comprise several of the aforementioned sensor types and/or combinations of the aforementioned sensor types. The respective measurement data from different sensors can in particular be entered or merged into the same environment map. Furthermore, the invention relates to a method for training a folding neural network, comprising the steps: - Providing at least one training data set comprising several training environment maps each describing the environment of the vehicle from training measurement data, the training measurement data being spatially in the training environment map Reference to a vehicle are specified, - assigning a ground truth describing at least one parking space in the area surrounding the vehicle to each of the training environment maps, the ground truth classifying and localizing at least a section of the training environment map as a parking space, the ground truth being the relative orientation of the indicates parking space for the vehicle, 202107831 13 - Overlaying the training environment maps each with an evaluation grid comprising several cells, with at least one frame being assigned to each cell of the evaluation grid, - determining the respective frame with the largest overlap to the at least one parking space described by the ground truth, and - optimizing of the neural network with regard to a match in the relative arrangement between the respective frame with the largest overlap and the parking space described by the ground truth. The method according to the invention for training a folding neural network can be used in particular for training a neural network used in a method according to the invention for determining parking information describing at least one parking space. Through the training, the internal parameters of the neural network can be adjusted so that it can be set up or trained for the evaluation of the environment maps created from the measurement data according to the method according to the invention for determining parking information describing at least one parking space. The creation of the training environment maps from the training measurement data is carried out in particular analogous to the creation of the environment maps from the measurement data, as described above. The training measurement data are indicated in the training environment map in relation to the position of a vehicle. The training measurement data can, for example, have been determined at an earlier point in time by means of a sensor device of a vehicle comprising at least one environment sensor and can then be used for training. Alternatively, training measurement data created and/or calculated in a different way can also be used. A ground truth is then assigned to each of the training environment maps, with the ground truth describing one or more parking spaces in the environment map. In addition, the ground truth also gives the location for locating the parking space as well as the relative orientation of the parking space to the 202107831 14 vehicle described in the area map. The ground truth represents the result to which the evaluation of the neural network is optimized during training. The training environment maps are then overlaid during training with an evaluation grid comprising several cells, which can also be referred to as a training evaluation grid in relation to the training of the neural network. At least one frame or at least one box is assigned to the cells of the evaluation grid. These represent initial assumptions for possible parking spaces. The frame that has the largest overlap with a parking space described by the ground truth is then selected from the majority of frames in the evaluation grid. In particular, the frame with the largest overlap is determined for each parking space described in the ground truth. The overlap can also be referred to as Intersection Over Union (IoU) and indicates the proportion to which each of the frames in the evaluation grid overlaps with one of the parking spaces described by the ground truth. After determining the one or more frames with the largest overlap to one or more parking spaces described by the ground truth, the neural network is optimized with regard to a match in the relative arrangement between the respective frame with the largest overlap and the one described by the ground truth. parking space assigned to the frame. In this way, the neural network can be trained efficiently for the recognition of parking spaces in maps of the surrounding area, in particular for use in a method according to the invention for determining parking information describing at least one parking space. According to the invention, it can be provided that, in order to determine the overlap, it is determined in which cell the center of the at least one parking space described by the ground truth lies, the frame of this 202107831 15 cell is chosen as the frame with the largest overlap, whose area-related overlap with the parking space described by the ground truth is largest. If it is first determined in which cell of the evaluation grid the center of the parking space or a parking space described by the ground truth is located, the number of frames for which the overlap is determined can be reduced, so that fewer calculation steps are required and thus more efficient training is possible is. In a preferred embodiment of the invention, it can be provided that an evaluation grid is used in which several differently positioned and/or differently oriented frames are assigned to each cell and/or that the classification of the parking space includes a classification as a perpendicular parking space and as a parallel parking space. Analogous to the determination of the parking information describing at least one parking space, several frames per cell of the evaluation grid can also be used during training. These frames can in particular be rectangular and arranged at different positions and/or with different orientations to the cards of a rectangular cell of the evaluation grid. These frames can be used, for example, to make a distinction between a perpendicular parking space and a parallel parking space and thus also to train the neural network with regard to a corresponding classification or distinction. According to the invention, it can be provided that the ground truth for the at least one parking space described by the ground truth additionally contains position information, the position information describing a target position for the vehicle assigned to the respective parking space and lying within the parking space, the optimization of the neural network also with regard to Position information is provided. In this way, it can be achieved that the neural network is also trained with regard to position information located within the parking space, so that this can also be determined by the neural network. 202107831 16 The invention further relates to a sensor device comprising at least one environment sensor and a computing device, wherein the computing device is set up to carry out a method according to the invention for determining parking information describing at least one parking space. The invention further relates to a vehicle comprising at least one sensor device according to the invention. The invention also relates to a computer program product comprising instructions which cause a computing device to carry out a method according to the invention for determining parking information describing at least one parking space. In addition, the invention relates to a computer-readable storage medium comprising a computer program product according to the invention. The computer-readable storage medium can be, for example, a non-transient data carrier, for example a CD, a DVD, a floppy disk, a flash memory or the like. All of the advantages and refinements described above for the method according to the invention for determining parking information describing at least one parking space also apply accordingly to the method according to the invention for training a convolutional neural network and vice versa. Furthermore, all advantages and refinements described in relation to one of the methods according to the invention also apply correspondingly to the sensor device according to the invention, the vehicle according to the invention, the computer program product according to the invention and the computer-readable storage medium according to the invention and vice versa. 202107831 17 Further advantages and details of the invention emerge from the exemplary embodiments described below and from the drawings. These are schematic representations and show: an environment map superimposed with an evaluation grid to explain the exemplary embodiment of a method according to the invention for determining parking information describing at least one parking space and an exemplary embodiment for training a neural network. An exemplary embodiment of a vehicle 1 according to the invention is shown in FIG. The vehicle 1 can be, for example, a motor vehicle such as a passenger car or a truck. Furthermore, the vehicle 1 can also be a vehicle combination, which has, for example, a towing vehicle and one or more trailers. Alternatively, the method can also be used on other types of vehicles. The vehicle 1 includes a sensor device 2, which has several environment sensors 3 and a computing device 4. The environment sensors 3 of the sensor device 2 are designed, for example, as ultrasonic sensors. Additionally or alternatively, at least some of the surroundings sensors 3 can also be designed as a surroundings camera, as a radar sensor and/or as a lidar sensor. The computer device 4 of the sensor device 2 is shown as part of the vehicle 1 in the present exemplary embodiment. It is possible that the computing device 4 is integrated into one of the environment sensors 3 or that it 202107831 18 is a computing device external to the vehicle. A vehicle-external computing device can communicate with the environment sensors 3 and/or other devices of the vehicle 1 via a particularly wireless communication connection. Using the surrounding sensors 3, measurement data from the surroundings of the vehicle 1 can be determined. The measurement data describes objects that are in the vicinity of the vehicle 1. The objects can be, for example, other road users such as other vehicles or similar. Furthermore, immovable objects, such as infrastructure objects, parts of buildings or similar, can also be recorded as objects. The computing device 4 of the sensor device 2 is designed to carry out a method for determining parking information describing at least one parking space in the vicinity of the vehicle 1. Depending on the parking information, for example, an automated or partially automated control of a parking process of the vehicle 1 can take place, in particular by controlling at least one actuator (not shown) of the vehicle 1. The vehicle 1 can move forward and / or backward during the parking process, carry out steering movements and in particular, carry out several partial movements or moves. The parking process can in particular be carried out in such a way that the vehicle is positioned in at least one parking space described by the parking information. In addition or as an alternative to the actuator, a display device (not shown) of the vehicle 1 can also be controlled, so that, for example, a driver of the vehicle 1 can be made aware of the parking spaces determined in the area surrounding the vehicle, for example by means of a corresponding pictorial representation. The display device can be, for example, a display arranged in an interior of the vehicle 1, a heads-up display, a virtual side mirror or the like. The representation on the display device can be used, for example, to enable the driver to select one of several identified parking spaces as the destination of a parking operation. Additionally or alternatively 202107831 19, aids for moving the vehicle 1 into a determined and/or selected parking space can be displayed on the display device, which enable the driver to move the vehicle 1 into this parking space. To determine the parking information with the computing device 4 or to determine the parking information in a computer-implemented method, measurement data describing the surroundings or the surroundings of the vehicle 1 are first determined with one or more of the surroundings sensors 3, the measurement data being assigned to one or more objects in the surroundings of the Vehicle 1 are assigned. At least one environment map 5 describing the environment of the vehicle 1 is then created from the measurement data, the measurement data being indicated spatially in relation to the vehicle 1 in the environment map 5. An exemplary embodiment of such an environment map 5 is shown in FIG. The environment map 5 is a rectangular map in which the vehicle 1 is arranged in the middle. The measurement data are indicated spatially in relation to the vehicle 1 in the environment map 5. The measurement data are shown here as measurement points 6, which can be determined, for example, by environmental sensors 3 designed as ultrasonic sensors. The measuring points 6 of the measurement data each describe a signal echo that was reflected by an object in the vicinity of the vehicle 1. The individual measuring points 6 each include a distance measurement in relation to the vehicle 1, which can be carried out, for example, from a transit time measurement. In addition, a direction can also be determined for each of the measuring points 6, so that the reflection locations or the objects assigned to the measuring points 6 can be placed in spatial relation to the vehicle 1. The environment map 5 further comprises a map grid 7, with the measurement data being assigned to the individual cells 8 of the map grid 7. For each of the cells 8, for example, the number of measurement points 6 of the measurement data assigned to the cell 8 can be determined and stored in the environment map 5. Furthermore, the height of an object described by the measurement data assigned to the cell 8 and the type of such an object can also be added to the individual cells 8 202107831 20 and/or at least one further signal property of the measurement data assigned to the cell can be specified. The signal property can be, for example, the intensity of the individual measuring points 6. It is possible for a signal property such as the intensity to be specified, for example averaged for all measuring points of one of the cells 8. This can also be done accordingly with information regarding the height of an object and/or the type of an object. In addition to the measuring points 6 of environment sensors 2 designed as ultrasonic sensors, measurement points 6 of environment sensors 3 designed as radar sensors and/or lidar sensors can also be included in the environment map 5 be entered. Furthermore, objects determined via other types of sensors, for example surroundings sensors 3 designed as surroundings cameras, can also be entered in the surroundings map 5. In this way, objects such as road markings, parking lot markings or the like can also be entered in the environment map 5. The at least one environment map 5 is then evaluated by the computing device 4, the environment map 5 being fed to a folding neural network implemented by the computing device 4, the neural network classifying and localizing parking spaces 9 present in the area surrounding the vehicle 1 from the environment map 5, wherein the neural network uses regression to determine the relative arrangement of the parking spaces 9 to the vehicle 1. From the classified parking spaces 9 and their relative arrangement to the vehicle 1, the computing device 4 or another computing device (not shown) then generates the parking information describing at least one parking space 9 in the surroundings of the vehicle 1. Advantageously, the environment map 5 can be processed like a two-dimensional image file by the neural network. The neural network is set up to overlay the environment map 5 with an evaluation grid 11 comprising several cells 10, with each cell 10 202107831 21 at least one frame 12 is assigned. An environment map 5 superimposed with an evaluation grid 11 is shown in Fig.3. In the present case, each cell 10 comprises two rectangular frames 12, 13, which are arranged rotated by 90°. The frames 12, 13 are therefore oriented differently with respect to the cell 10. It is possible for the cells 10 to also be assigned additional frames (not shown), which, for example, have the same orientation as one of the frames 12, 13, but along one of the edges of the cell 10 in the x direction and/or in y direction are arranged offset. In the parking information, a classification as a parking space and/or an orientation of a parking space 9 described by the measurement data and assigned to the frame 12, 13 relative to the vehicle 1 is specified for each of the frames 12, 13 of all cells 10 of the evaluation grid 11. This makes it possible for the classification of the parking space 9 to include a classification as a perpendicular parking space and as a parallel parking space. A parking space 9 can be classified as such if a classification probability determined by the neural network is above a predetermined limit value. Accordingly, a parking space can be classified as a parallel parking space or as a perpendicular parking space if the corresponding classification probability assigned to one of the frames 12, 13 is above a predetermined limit value. The neural network additionally determines, at least for the frames 12, 13 classified as parking space 9, the relative arrangement of the parking space 9 to the vehicle 1 by means of regression. In this way, an exact localization of the parking space 9 in relation to the vehicle 1 is determined. Furthermore, different orientations of the parking spaces or different relative arrangements between vehicle 1 and a determined parking space 9 can be taken into account in this way. The parking information derived from the output of the neural network can also be used for at least some of the detected parking spaces 9 202107831 22 contain position information, wherein the position information describes a target position for the vehicle 1 that is assigned to the respective parking space 9 and lies within the parking space 9. The parking information generated can, for example, be a tensor which indicates for each of the frames 12, 13 whether it is a parking space 9 or not or whether it is a perpendicular parking space or a parallel parking space. Further information can be provided for each frame 12, 13 classified as a parking space 9. For each cell 10 of the evaluation grid 11, the parking information can contain, for example, a vector ^ ^^^^ , which can be used as
Figure imgf000024_0001
can be expressed. The values assigned to the frame 12 are marked, for example, with the index “1” and the values assigned to the frame 13, which are largely not shown for reasons of clarity, are marked with the index “2”. The individual values or components of the vector describe: P: an indicator (e.g. 0 or 1), whether the corresponding frame 12, 13 is a parking space 9, bx, by: the coordinates in the x direction and y- Direction of a center point of the determined parking space 9, for example as a percentage based on the size of the cell 10 starting from the lower left corner, bw, bh: the width and the height of the determined parking space 9, specified for example as a percentage based on the width and the height of the cell 10 of the evaluation grid 11, bθ: angle or rotation of the parking space 9 in relation to the cell 10, tx, ty: coordinates of a center point of a target position within the determined parking space 9, specified, for example, as a percentage in relation to the Cell 10 and relative to its center, 202107831 23 tθ: Angle of the target position, specified for example in relation to the determined parking space 9. Cpar, Cperp, Cvoid: The class probabilities for the presence of a parallel parking space (Cpar), for the presence of a perpendicular parking space (Cperp) and for the existence of no parking space (Cvoid). For example, the indicator P can be set to one if one of the probabilities Cpar or Cperp is above a predetermined limit, or set to zero if the probability Cvoid is above a predetermined limit. The information tx, ty and tθ form position information which describes the target position for the vehicle 1 that is assigned to the respective parking space and lies within the parking space. The parking information output, for example, in the form of a tensor has a dimensionality of ^ × ^ × (^ ^^^^ ) or ^ × ^ × (" ∗ $), where A and B are the number of rows and columns of the evaluation grid represent and their product thus indicates the number of cells in the evaluation grid and ^ ^^^^ is the vector assigned to each cell, which generally has " ∗ $ components, where " is the number of frames per cell and $ is the number of frames per frame in The information determined in the cell describes. In the above example for ^ ^^^^ is " = 2 and $ = 12. In an exemplary embodiment of a method for training the convolutional neural network, at least one training data set is first comprising several each describing the environment of the vehicle 1 Training environment maps provided from training measurement data. The measurement data in the training environment map are spatially specified in relation to a vehicle 1. The training method serves in particular to train the convolutional neural network implemented in the computing device 4 to carry out the exemplary embodiment described above. 202107831 24 Each of the training environment maps is assigned a ground truth describing at least one parking space 14 in the surroundings of the vehicle 1, the ground truth classifying and localizing at least a section of the training environment map as a parking space 14. In addition, the ground truth indicates the relative orientation of the parking space 14 to the vehicle. A parking space 14 specified by the ground truth is shown in FIG. The training environment maps basically correspond to the environment maps 5, as described above. Also during training, the training environment maps, as described above and as shown in FIG . The respective frame 12, 13 with the largest overlap to the at least one parking space 14 described by the ground truth is then determined. The neural network is then checked for a match in the relative arrangement between the respective frame 12, 13 with the largest overlap and the parking space 14 described by the ground truth is optimized. To determine the overlap, it is determined in which of the cells 10 of the evaluation grid 11 the center point 15 of the at least one parking space 14 described by the ground truth lies. In the example shown in Figure 3, this is cell 10, which is in the second row and the fifth column. Subsequently, the frame 12, 13 in this cell is selected as the frame with the largest overlap, whose overlap with the parking space 14 described by the ground truth is largest. To determine the respective overlap, a value for its area-related overlap or its Intersection Over Union (IoU) is determined for each of the frames 12, 13 in the cell in which the center 15 lies. 202107831 25 In the example shown in Fig. 3, the overlap with the vertically oriented frame 12 is larger, so that this is chosen as the goal of optimizing the neural network. Based on the choice of the frame 12, 13 and the arrangement of the vehicle 1 in the surrounding map, it can be determined or trained accordingly whether it is a parallel parking space or, as in the present case, a perpendicular parking space. It is possible for an evaluation grid 11 to be used in which more than two frames 12, 13 are assigned to each cell 10. The multiple frames 12, 13 can be positioned differently and/or oriented differently. Different dimensions, such as a different width, a different length, a different position of the center of the frame 12 and the parking space 14 with respect to the cell 10 as well as the relative orientation (angle θ) between the frame 12 and the parking space 14, which are determined by the neural network are also determined using regression and are also trained. The orientation of the parking space 14 can be approximated by the frames 12, 13 or, by using two or more frames 12, 13 per cell 10, differently positioned and/or differently oriented localization and/or orientation parameters can be initially specified. The more frames 12, 13 are used, the more precisely the neural network can localize and determine the relative arrangement of the parking space 14 in relation to the vehicle. Furthermore, the ground truth for the at least one parking space 14 can additionally contain position information, the position information describing a target position for the vehicle 1 that is assigned to the respective parking space 14 and lies within the parking space, the optimization of the neural network also taking place with regard to the position information. This can be done accordingly by training the determination of the parameters ^', ^^ and ^(. 202107831 26 Optimizing the neural network can be done using a loss function. The loss function can minimize error squares for all variables of the vector ^ ^^^^ or for all variables $, which should be able to be determined in relation to one of the frames 12, 13. Additionally or alternatively, a softmax function can also be used or only the errors of the class probabilities ^)*+, ^),+) and ^-.$/ and/or the classification probability ^ 0 can be minimized. An example of a loss function ℓ(^2, ^) is ℓ(^2, ^) = (^2 ^ − ^ ^ ) ^ + (^2 ^ − ^ ^ ) ^ + ⋯ + (^2 0 − ^ 0 ) ^ , 8,"" ^ ^ = 1 ℓ(^2, ^) = (^2 ^ − ^ ^ ) ^ , 8,"" ^ ^ = 0. If ^ ^ = 1, it means that the Frame 12 assigned to index “1” was classified as a parking space. In this case, the loss function is used to calculate the squared error of each variable $ ie each component ^ 0 of the vector ^ ^^^^ . If ^ ^ = 0, this means that the frame 12 assigned to the index "1" was classified as "not a parking space", in which case only the squared error in the indicator or the classification probability ^ 0 , i.e. the component ^ ^ of the vector ^ ^^^^ , is minimized.

Claims

202107831 27 Patentansprüche 1. Verfahren zum Ermitteln einer wenigstens eine Parklücke (9) beschreibenden Parkinformation mit einer Sensoreinrichtung (2) eines Fahrzeugs (1), wobei die Sensoreinrichtung (2) wenigstens einen Umfeldsensor (3) und eine Recheneinrichtung (4) aufweist, umfassend die Schritte: ^ Erfassen von ein Umfeld des Fahrzeugs (1) beschreibenden Messdaten mit dem wenigstens einen Umfeldsensor (1), wobei die Messdaten einem oder mehreren Objekten im Umfeld des Fahrzeugs (1) zugeordnet sind, ^ Erstellen wenigstens einer das Umfeld des Fahrzeugs (1) beschreibenden Umfeldkarte (5) aus den Messdaten, wobei die Messdaten in der Umfeldkarte räumlich in Bezug zu dem Fahrzeug (1) angegeben sind, ^ Auswerten der wenigstens einen Umfeldkarte (5) durch die Recheneinrichtung (4), wobei die Umfeldkarte (5) einem faltenden neuronalen Netzwerk zugeführt wird, wobei das neuronale Netzwerk aus der Umfeldkarte (5) im Umfeld des Fahrzeugs (1) vorhandene Parklücken (9) klassifiziert und lokalisiert, wobei das neuronale Netz mittels Regression jeweils die relative Anordnung der Parklücken (9) zu dem Fahrzeug (1) ermittelt, und ^ Erzeugen der Parkinformation aus den klassifizierten und lokalisierten Parklücken (9) sowie ihrer relativen Anordnung. 2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Umfeldkarte (5) ein Kartenraster (7) enthält und die Messdaten den Zellen (8) des Kartenrasters (7) zugeordnet werden, wobei für jede Zelle (8) die Anzahl von der Zelle (8) zugeordneten Messpunkten (6) der Messdaten, die Höhe eines von den der Zelle (8) zugeordneten Messdaten beschriebenen Objekts, der Typ eines von den der Zelle (8) zugeordneten Messdaten beschriebenen Objekts und/oder wenigstens eine Signaleigenschaft von der Zelle (8) zugeordneten Messdaten angegeben wird. 202107831 28 3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass das neuronale Netz dazu eingerichtet ist, die Umfeldkarte (5) mit einem mehrere Zellen (10) umfassenden Auswertungsraster (11) zu überlagern, wobei jeder Zelle (10) wenigstens ein Rahmen (12, 13) zugewiesen ist, wobei in der Parkinformation für jeden der Rahmen (12, 13) eine Klassifizierung als Parklücke und/oder eine Orientierung einer durch die Messdaten beschriebenen und dem Rahmen (12, 13) zugeordneten Parklücke relativ zu dem Fahrzeug (1) angegeben wird. 4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass ein Auswertungsraster (11) verwendet wird, in dem jeder Zelle (10) mehrere unterschiedlich positionierte und/oder unterschiedlich orientierte Rahmen (12, 13) zugeordnet sind. 5. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Parkinformation für zumindest einen Teil der klassifizierten Parklücken (9) zusätzlich eine Positionsinformation enthält, wobei die Positionsinformation eine der jeweiligen Parklücke (9) zugeordnete und innerhalb der Parklücke (9) liegende Zielposition für das Fahrzeug (1) beschreibt. 6. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Klassifizierung der Parklücke (9) eine Klassifizierung als Querparklücke und als Längsparklücke umfasst. 7. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass eine Sensoreinrichtung (2) verwendet wird, welche als wenigstens einen Umfeldsensor (3) wenigstens einen Ultraschallsensor, wenigstens einen Lidarsensor, wenigstens einen Radarsensor und/oder wenigstens eine Umfeldkamera umfasst. 202107831 29 8. Verfahren zum Trainieren eines faltenden neuronalen Netzes, insbesondere für die Verwendung in einem Verfahren nach einem der vorangehenden Ansprüche, umfassend die Schritte: ^ Bereitstellen wenigstens eines Trainingsdatensatzes umfassend mehrere jeweils das Umfeld eines Fahrzeugs (1) beschreibende Trainings-Umfeldkarten aus Trainings-Messdaten, wobei die Trainings- Messdaten in der Trainings-Umfeldkarte räumlich in Bezug zu dem Fahrzeug (1) angegeben sind, ^ Zuweisen einer wenigstens eine Parklücke (14) in dem Umfeld des Fahrzeugs (1) beschreibenden Grundwahrheit jeder der Trainings- Umfeldkarten, wobei die Grundwahrheit zumindest einen Abschnitt der Trainings-Umfeldkarte als eine Parklücke (14) klassifiziert und lokalisiert, wobei die Grundwahrheit die relative Orientierung der Parklücke (14) zu dem Fahrzeug (1) angibt, ^ Überlagern der Trainings-Umfeldkarten jeweils mit einem mehrere Zellen (10) umfassenden Auswertungsraster (11), wobei jeder Zelle (10) des Auswertungsrasters (11) wenigstens ein Rahmen (12, 13) zugewiesen ist, ^ Ermitteln des jeweiligen Rahmens (12, 13) mit dem größten Überlapp zu der wenigstens einen, durch die Grundwahrheit beschriebenen Parklücke (14), ^ Optimieren des neuronalen Netzes hinsichtlich einer Übereinstimmung in der relativen Anordnung zwischen dem jeweiligen Rahmen (12, 13) mit dem größten Überlapp und der durch die Grundwahrheit beschriebenen Parklücke (14). 9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass für das Ermitteln des Überlapps bestimmt wird, in welcher Zelle (10) jeweils der Mittelpunkt (15) der wenigstens einen durch die Grundwahrheit beschriebenen Parklücke (14) liegt, wobei derjenige Rahmen (12, 13) dieser Zelle (10) als Rahmen (12, 13) mit dem größten Überlapp gewählt wird, dessen Überschneidung mit der durch die Grundwahrheit beschriebenen Parklücke (14) am größten ist. 202107831 30 10. Verfahren nach Anspruch 8 oder 9, dadurch gekennzeichnet, dass ein Auswertungsraster (11) verwendet wird, in dem jeder Zelle (10) mehrere unterschiedlich positionierte und/oder unterschiedlich orientierte Rahmen (12, 13) zugeordnet sind und/oder dass die Klassifizierung der durch die Grundwahrheit beschriebenen Parklücke (14) eine Klassifizierung als Querparklücke und als Längsparklücke umfasst. 11. Verfahren nach einem der Ansprüche 8 bis 10, dadurch gekennzeichnet, dass die Grundwahrheit für die wenigstens eine Parklücke (14) zusätzlich eine Positionsinformation enthält, wobei die Positionsinformation eine der jeweiligen Parklücke (14) zugeordnete und innerhalb der Parklücke (14) liegende Zielposition für das Fahrzeug (1) beschreibt, wobei die Optimierung des neuronalen Netzes auch hinsichtlich der Positionsinformationen erfolgt. 12. Sensoreinrichtung umfassend wenigstens einen Umfeldsensor (3) und eine Recheneinrichtung (4), wobei die Recheneinrichtung (4) zur Durchführung eines Verfahrens nach einem der Ansprüche 1 bis 7 eingerichtet ist. 13. Fahrzeug umfassend wenigstens eine Sensoreinrichtung (2) nach Anspruch 12. 14. Computerprogrammprodukt umfassend Instruktionen, welche eine Recheneinrichtung (4) dazu veranlassen, ein Verfahren nach einem der Ansprüche 1 bis 7 auszuführen. 15. Computerlesbares Speichermedium umfassend ein Computerprogrammprodukt nach Anspruch 14. 202107831 27 Claims 1. Method for determining parking information describing at least one parking space (9) with a sensor device (2) of a vehicle (1), the sensor device (2) having at least one environment sensor (3) and a computing device (4), comprising the steps: ^ Acquiring measurement data describing an environment of the vehicle (1) with the at least one environment sensor (1), the measurement data being assigned to one or more objects in the environment of the vehicle (1), ^ Creating at least one of the surroundings of the vehicle ( 1) descriptive environment map (5) from the measurement data, the measurement data in the environment map being spatially specified in relation to the vehicle (1), ^ evaluating the at least one environment map (5) by the computing device (4), the environment map (5 ) is fed to a folding neural network, the neural network classifying and localizing existing parking spaces (9) from the environment map (5) in the vicinity of the vehicle (1), the neural network using regression to determine the relative arrangement of the parking spaces (9). the vehicle (1), and ^ generating the parking information from the classified and localized parking spaces (9) as well as their relative arrangement. 2. The method according to claim 1, characterized in that the environment map (5) contains a map grid (7) and the measurement data are assigned to the cells (8) of the map grid (7), with the number of cells for each cell (8). (8) assigned measuring points (6) of the measurement data, the height of an object described by the measurement data assigned to the cell (8), the type of an object described by the measurement data assigned to the cell (8) and / or at least one signal property from the cell ( 8) assigned measurement data is specified. 202107831 28 3. Method according to claim 1 or 2, characterized in that the neural network is set up to overlay the environment map (5) with an evaluation grid (11) comprising several cells (10), each cell (10) having at least one Frame (12, 13) is assigned, wherein in the parking information for each of the frames (12, 13) a classification as a parking space and / or an orientation of a parking space described by the measurement data and assigned to the frame (12, 13) relative to the vehicle (1) is specified. 4. The method according to claim 3, characterized in that an evaluation grid (11) is used, in which each cell (10) is assigned several differently positioned and / or differently oriented frames (12, 13). 5. Method according to one of the preceding claims, characterized in that the parking information for at least some of the classified parking spaces (9) additionally contains position information, the position information being a target position assigned to the respective parking space (9) and lying within the parking space (9). for the vehicle (1). 6. Method according to one of the preceding claims, characterized in that the classification of the parking space (9) includes a classification as a perpendicular parking space and as a parallel parking space. 7. The method according to any one of the preceding claims, characterized in that a sensor device (2) is used, which comprises at least one ultrasonic sensor, at least one lidar sensor, at least one radar sensor and / or at least one environment camera as at least one environment sensor (3). 202107831 29 8. Method for training a folding neural network, in particular for use in a method according to one of the preceding claims, comprising the steps: ^ Providing at least one training data set comprising several training environment maps from training, each describing the environment of a vehicle (1). -Measurement data, the training measurement data being specified in the training environment map spatially in relation to the vehicle (1), ^ assigning a ground truth describing at least one parking space (14) in the area surrounding the vehicle (1) to each of the training environment maps, wherein the ground truth classifies and localizes at least a section of the training environment map as a parking space (14), the ground truth indicating the relative orientation of the parking space (14) to the vehicle (1), ^ overlaying the training environment maps each with a plurality of cells (10) comprehensive evaluation grid (11), with each cell (10) of the evaluation grid (11) being assigned at least one frame (12, 13), ^ determining the respective frame (12, 13) with the greatest overlap to the at least one, parking space (14) described by the ground truth, ^ optimizing the neural network with regard to a match in the relative arrangement between the respective frame (12, 13) with the largest overlap and the parking space (14) described by the ground truth. 9. The method according to claim 8, characterized in that for determining the overlap it is determined in which cell (10) the center point (15) of the at least one parking space (14) described by the ground truth is located, the frame (12, 13) this cell (10) is selected as the frame (12, 13) with the largest overlap, the overlap of which with the parking space (14) described by the ground truth is largest. 202107831 30 10. Method according to claim 8 or 9, characterized in that an evaluation grid (11) is used, in which each cell (10) is assigned several differently positioned and/or differently oriented frames (12, 13) and/or that the classification of the parking space (14) described by the ground truth includes a classification as a perpendicular parking space and as a parallel parking space. 11. The method according to one of claims 8 to 10, characterized in that the ground truth for the at least one parking space (14) additionally contains position information, the position information being a target position assigned to the respective parking space (14) and lying within the parking space (14). for the vehicle (1), the optimization of the neural network also taking place with regard to the position information. 12. Sensor device comprising at least one environment sensor (3) and a computing device (4), the computing device (4) being set up to carry out a method according to one of claims 1 to 7. 13. Vehicle comprising at least one sensor device (2) according to claim 12. 14. Computer program product comprising instructions which cause a computing device (4) to carry out a method according to one of claims 1 to 7. 15. Computer-readable storage medium comprising a computer program product according to claim 14.
PCT/DE2023/200153 2022-08-03 2023-07-25 Method for determining a parking space with the aid of a convolutional neural network WO2024027884A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102022208049.1A DE102022208049A1 (en) 2022-08-03 2022-08-03 Method for determining a parking space using a convolutional neural network
DE102022208049.1 2022-08-03

Publications (1)

Publication Number Publication Date
WO2024027884A1 true WO2024027884A1 (en) 2024-02-08

Family

ID=87801365

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/DE2023/200153 WO2024027884A1 (en) 2022-08-03 2023-07-25 Method for determining a parking space with the aid of a convolutional neural network

Country Status (2)

Country Link
DE (1) DE102022208049A1 (en)
WO (1) WO2024027884A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200090516A1 (en) * 2018-09-13 2020-03-19 Volvo Car Corporation Vehicle parking availability map systems and methods
US20200294310A1 (en) * 2019-03-16 2020-09-17 Nvidia Corporation Object Detection Using Skewed Polygons Suitable For Parking Space Detection

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017130488A1 (en) 2017-12-19 2019-06-19 Valeo Schalter Und Sensoren Gmbh A method for classifying parking spaces in a surrounding area of a vehicle with a neural network
DE102018214915A1 (en) 2018-09-03 2020-03-05 Continental Teves Ag & Co. Ohg System for detecting a parking space in the direction of travel
DE102020211332A1 (en) 2020-09-09 2022-03-10 Volkswagen Aktiengesellschaft Method for determining a parking position for a motor vehicle, driver assistance system for performing such a method, and motor vehicle with a driver assistance system
DE102020131766A1 (en) 2020-12-01 2022-06-02 Bayerische Motoren Werke Aktiengesellschaft Vehicle system and method for determining a parking area for a vehicle

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200090516A1 (en) * 2018-09-13 2020-03-19 Volvo Car Corporation Vehicle parking availability map systems and methods
US20200294310A1 (en) * 2019-03-16 2020-09-17 Nvidia Corporation Object Detection Using Skewed Polygons Suitable For Parking Space Detection

Also Published As

Publication number Publication date
DE102022208049A1 (en) 2024-02-08

Similar Documents

Publication Publication Date Title
DE112015001150B4 (en) Method, device and system for supporting platooning
DE102015203016B4 (en) Method and device for optical self-localization of a motor vehicle in an environment
DE102019100569A1 (en) SYSTEMS AND METHOD FOR MINORIZING UNPROTECTED MANEUVERS IN AUTONOMOUS VEHICLES
DE102019111414A1 (en) CONTROL SYSTEMS, CONTROL PROCEDURES AND CONTROLS FOR AN AUTONOMOUS VEHICLE
DE102016211182A1 (en) A method, apparatus and system for performing automated driving of a vehicle along a trajectory provided from a map
WO2020089311A1 (en) Control system and control method for sampling-based planning of possible trajectories for motor vehicles
DE112018000335T5 (en) SYSTEMS AND METHOD FOR A CALCULATION FRAME FOR A VISUAL WARNING OF THE DRIVER USING A "FULLY CONVOLUTIONAL" ARCHITECTURE
DE102020113848A1 (en) ECCENTRICITY FUSION
EP3824247A1 (en) Method and system for determining a position of a vehicle
DE102019215902A1 (en) Method for determining a quality level of data sets from sensors
DE102021112616A1 (en) SELF-MONITORED ESTIMATION OF A WATCHED VEHICLE FLOAT
DE102021109395A1 (en) METHODS, SYSTEMS AND DEVICES FOR USER UNDERSTANDABLE EXPLAINABLE LEARNING MODELS
DE102020128978A1 (en) TRAINING DEEP NEURAL NETWORKS WITH SYNTHETIC IMAGES
DE102021213021A1 (en) PARKING ASSISTANCE SYSTEM WITH IMPROVED ESCAPE CONTROL AND METHOD THEREOF
DE102022112478A1 (en) Methods and systems for displaying the driving situation to external users
DE112022001546T5 (en) Systems and methods for generating object recognition labels using foveal image magnification for autonomous driving
DE112020002139T5 (en) Vehicle travel control apparatus, vehicle travel control method and computer program product
DE102020117767A1 (en) Trajectory planning for an autonomous driving maneuver of an ego vehicle
DE102021130693A1 (en) PROCEDURE FOR ARRANGEMENT OF PLATOONING VEHICLES BASED ON VEHICLES' HISTORICAL RADIO PERFORMANCE
DE102020211971A1 (en) VEHICLE TRAJECTORY PREDICTION USING ROAD TOPOLOGY AND TRAFFIC PARTICIPANT OBJECT STATES
DE102020214596A1 (en) Method for generating training data for a recognition model for recognizing objects in sensor data of an environment sensor system of a vehicle, method for generating such a recognition model and method for controlling an actuator system of a vehicle
DE102020101832A1 (en) PROCEDURES AND SYSTEMS FOR INTERPRETING TRAFFIC SIGNALS AND OCCURRING SIGNALED INTERSECTIONS
EP3809316A1 (en) Prediction of a road route based on radar data
DE102020106680A1 (en) SYSTEM AND METHOD FOR CONTROLLING THE OPERATION OF A DEVICE WITH A STEERABLE OPTICAL SENSOR AND A STEERABLE RADAR UNIT
WO2024027884A1 (en) Method for determining a parking space with the aid of a convolutional neural network

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23761057

Country of ref document: EP

Kind code of ref document: A1