EP4176376A1 - Verfahren sowie steuergerät zum steuern eines kraftfahrzeugs - Google Patents

Verfahren sowie steuergerät zum steuern eines kraftfahrzeugs

Info

Publication number
EP4176376A1
EP4176376A1 EP21735216.0A EP21735216A EP4176376A1 EP 4176376 A1 EP4176376 A1 EP 4176376A1 EP 21735216 A EP21735216 A EP 21735216A EP 4176376 A1 EP4176376 A1 EP 4176376A1
Authority
EP
European Patent Office
Prior art keywords
dimensional
road
motor vehicle
road user
trajectory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP21735216.0A
Other languages
English (en)
French (fr)
Inventor
Till Nattermann
Anne Stockem Novo
Martin Krüger
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZF Friedrichshafen AG
Original Assignee
ZF Friedrichshafen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZF Friedrichshafen AG filed Critical ZF Friedrichshafen AG
Publication of EP4176376A1 publication Critical patent/EP4176376A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0027Planning or execution of driving tasks using trajectory prediction for other traffic participants
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4042Longitudinal speed

Definitions

  • the invention relates to a method for controlling a motor vehicle.
  • the invention also relates to a control unit for a system for controlling a motor vehicle, a motor vehicle and a computer program.
  • One of the tasks of driver assistance systems which control a longitudinal movement and a lateral movement of a motor vehicle in a partially automated manner, and above all for fully automated motor vehicles, is to analyze a specific situation in which the motor vehicle is located and, based on this, to carry out appropriate driving maneuvers for the vehicle To determine and execute motor vehicle in real time.
  • the complexity of the calculation of the driving maneuvers generally increases with the duration of the individual driving maneuvers. If different, possible driving maneuvers are to be determined for a longer period of time, for example longer than three seconds, or complex driving maneuvers with several lane changes are involved, previously known methods are often no longer able to determine these in real time.
  • the object of the invention is therefore to provide a method and a control unit for controlling a motor vehicle that predicts possible driving maneuvers by other road users.
  • the object is achieved according to the invention by a method for controlling a motor vehicle which is driving on a road in a current lane, the motor vehicle having at least one sensor which is designed to detect at least one area of the current lane lying in front of the motor vehicle, and being on the current lane and/or at least one other road user is in at least one other lane.
  • the method comprises the following steps: acquiring environmental data using the at least one sensor, the environmental data including information about properties of the current lane, properties of the at least one other lane and/or the at least one other road user;
  • the utility value function assigning a utility value for the at least one other road user to different spatial regions of the current lane and/or the at least one other lane in each case at a predefined point in time;
  • the benefit represents a cost-benefit analysis for the at least one other road user to go to the corresponding area
  • a high utility value corresponds to high costs or a low benefit, while a low utility value corresponds to low costs or a high benefit.
  • the utility value is increased, for example, if traffic rules have to be broken in order to reach the corresponding area. Furthermore, the utility value is increased if predefined longitudinal and/or transverse distances to other road users are undercut, high accelerations are necessary, etc.
  • the utility value is reduced, for example, if the relevant area of the road enables the destination to be reached quickly and collisions are safely avoided the corresponding driving maneuver requires only low acceleration, etc.
  • the two-dimensional representation is a depiction of the traffic situation in an area surrounding the motor vehicle at a specific point in time. Accordingly, the two-dimensional representation has two spatial axes, in particular one of the spatial axes corresponding to a direction of travel of the motor vehicle and the other of the spatial axes corresponding to a transverse direction.
  • the method according to the invention is based on the basic idea of not calculating the probable trajectory of the at least one other road user directly from the utility value function using a conventional algorithm, but instead determining the two-dimensional representation of the utility value function and applying pattern recognition to the two-dimensional representation. The expected trajectory is then determined based on this pattern recognition.
  • the probable trajectory can be a family of trajectories. In other words, different possible trajectories together with their respective probability can be determined for the at least one other road user.
  • One aspect of the invention provides that a two-dimensional representation of the corresponding utility value function is determined at several predefined points in time, in particular in the past, and the at least one expected trajectory of the at least one other road user is determined based on the two-dimensional representations by a Pattern recognition is applied to the two-dimensional representations.
  • the set of two-dimensional representations at different points in time represents the course of the traffic situation over an observation period.
  • several utility value functionals and their respective two-dimensional representations are determined for the observation period, each representing a fixed point in time.
  • the data from the observation period are then used to predict the future trajectory of the at least one other road user.
  • the observation period can be between one second and five seconds, for example, in particular between two and three seconds.
  • a three-dimensional tensor is determined based on the two-dimensional representations, the at least one probable trajectory of the at least one other road user being determined based on the tensor by applying pattern recognition to the tensor.
  • the data available from the observation period is summarized in a single three-dimensional tensor, so that all data from the observation period can be used for pattern recognition.
  • the two-dimensional representations are stacked on top of each other along the time dimension to determine the tensor.
  • the three-dimensional tensor thus has two dimensions, which correspond to the spatial dimensions of the road, and a temporal dimension.
  • the different spatial areas are represented as grid points.
  • the road is divided into a two-dimensional grid, with the individual grid points of the grid each representing an area of the road.
  • the utility value functional assigns the corresponding utility value for the at least one other road user to each of the grid points.
  • the pattern recognition is preferably carried out using an artificial neural network, in particular using a convolutional neural network.
  • Artificial neural networks in particular convolutional neural networks, are particularly well suited for pattern recognition in multidimensional structures.
  • a further aspect of the invention provides that the artificial neural network has two-dimensional and/or three-dimensional filter kernels and/or that the artificial neural network has two-dimensional or three-dimensional pooling layers.
  • the artificial neural network has two-dimensional filter kernels and two-dimensional pooling layers. All time strips of the three-dimensional tensor are processed here simultaneously by means of the two-dimensional filter kernel, with a depth of the filter kernel in the time direction corresponding to a number of input channels.
  • the number of input channels is equal to the number of time strips of the three-dimensional tensor, i.e. equal to the number of two-dimensional representations in the observation period. It has been found that the artificial neural network in this embodiment of the invention can be trained more easily and faster and that less data has to be stored.
  • the artificial neural network includes three-dimensional filter kernels and three-dimensional pooling layers. Accordingly, here only a predefined number of time strips of the three-dimensional tensor are processed simultaneously by means of the three-dimensional filter kernel. Accordingly, the depth of the filter kernels in the time direction is also smaller here than the number of time strips of the three-dimensional tensor. In addition to being shifted along the spatial dimensions, the filter kernels are also shifted along the time dimension, so that pattern recognition is also possible along the time dimension takes place. It has been found that although the artificial neural network is more difficult to train in this embodiment of the invention, the accuracy of the probable trajectory of the at least one other road user is significantly improved.
  • the artificial neural network is also preferably trained with a training data set before it is used in the motor vehicle.
  • this offers the advantage that the same training data record can be used for each motor vehicle, so that not every motor vehicle first has to be trained when it is in use.
  • this offers the advantage that the time-consuming and computationally intensive training of the artificial neural network can be carried out centrally on a computer or computer network equipped accordingly with computing resources.
  • the two-dimensional representation is a two-dimensional image, in particular with a color of the individual pixels being determined based on the value of the corresponding utility value.
  • the current traffic situation is translated into one or more images.
  • the predicted trajectory of the at least one other road user is then predicted based on the pattern recognition that is applied to the image or images.
  • the value of the utility value in the two-dimensional representation is encoded in shades of gray, in particular at the corresponding grid points.
  • any other suitable color scheme can also be used.
  • a higher value of the useful value can correspond to a darker pixel in the two-dimensional representation and a lower useful value to a lighter pixel in the two-dimensional representation.
  • a higher value of the useful value can also correspond to a lighter pixel and a lower useful value to a darker pixel in the two-dimensional representation.
  • other road users who are spatially within a predefined distance from one another are regarded as a group of other road users, with a common benefit functional being determined for the group of other road users. This saves computing time, since a separate utility value functional or a separate tensor does not have to be determined for each additional road user.
  • a separate probable trajectory is calculated for each of the other road users.
  • a further aspect of the invention provides that, in particular for each other road user in the group, a previous trajectory of the at least one other road user is determined, with the at least one expected trajectory of the at least one other road user being determined based on the determined previous trajectory , in particular the result of the pattern recognition and the previous trajectory being supplied to an artificial neural network which determines the at least one anticipated trajectory.
  • the probable trajectory of the at least one other road user is determined based on a combination of pattern recognition and observation of the previous trajectory, in particular by means of another artificial neural network, whose input data are the result of the pattern recognition and the determined previous trajectory.
  • the previous trajectory is determined using a trajectory detection module.
  • the probable trajectory can take place by means of a trajectory determination module.
  • the structure and functioning of the trajectory recognition module and the trajectory determination module per se are already known from the publication "Convolutional Social Pooling for Vehicle Trajectory Prediction” by N.Deo and MM Trivedi, arXiv: 1805.06771, which is based on presented at the IEEE CVPR Workshop 2018.
  • these modules are combined with pattern recognition, which recognizes patterns in the two-dimensional representations or in the three-dimensional tensor.
  • the information about the properties of the current lane and/or about the properties of the at least one other lane can include at least one of the following elements: location and/or course of lane markings, type of lane markings, location and/or type of traffic signs, location and/or or course of crash barriers, location and/or circuit status of at least one traffic light, location of at least one parked vehicle.
  • the information about the at least one other road user includes a location of the at least one other road user, a speed of the at least one other road user and/or an acceleration of the at least one other road user.
  • the at least one probable trajectory is transferred to a driving maneuver planning module of the motor vehicle.
  • the driving maneuver planning module determines a driving maneuver to be carried out by the motor vehicle based on the at least one anticipated trajectory and based on the environmental data. In this case, an interaction of the motor vehicle with the other road users via the probable trajectories of the other road users is taken into account.
  • the driving maneuver to be carried out is then transferred to a trajectory planning module of the motor vehicle.
  • the trajectory planning module determines the specific trajectory that the motor vehicle should follow.
  • the motor vehicle can then be controlled automatically at least partially, in particular completely, based on the determined trajectory.
  • At least the current lane and/or the at least one further lane are transformed into a Frenet-Serret coordinate system.
  • every road is free of curvature, so that every road traffic situation can be treated in the same way, regardless of the actual course of the road.
  • control unit for a system for controlling a motor vehicle or for a motor vehicle, the control unit being designed to carry out the method described above.
  • the object is also achieved according to the invention by a motor vehicle with a control unit as described above.
  • a computer program with program code means to carry out the steps of a method described above when the computer program is executed on a computer or a corresponding processing unit, in particular a processing unit of a control device described above.
  • program code means to carry out the steps of a method described above when the computer program is executed on a computer or a corresponding processing unit, in particular a processing unit of a control device described above.
  • Program code means are to be understood here and below as computer-executable instructions in the form of program code and/or program code modules in compiled and/or uncompiled form, which can be present in any programming language and/or in machine language.
  • FIG. 1 schematically shows a road traffic situation
  • FIG. 2 is a schematic block diagram of a system for controlling a motor vehicle by means of a method according to the invention
  • FIG. 3 shows a flow chart of the steps of a method according to the invention
  • FIGS. 4 (a) and 4 (b) schematically show a road before a transformation into a Frenet-Serret coordinate system and the road after a transformation into a Frenet-Serret coordinate system;
  • FIG. 6 shows schematically a stack of two-dimensional representations of one of the utility functionals from FIG. 5 at different points in time;
  • FIG. 7 shows a schematic block diagram of a computer program for carrying out the method according to the invention.
  • FIG. 8 shows schematically a first possible architecture of an artificial neural network of the computer program of FIG. 7;
  • FIG. 9 shows schematically a second possible architecture of an artificial neural network of the computer program of FIG. 7.
  • FIG. 10 schematically an alternative architecture of the computer program of figure 7.
  • a road traffic situation is shown schematically in FIG. 1, in which a motor vehicle 10 is driving on a road 12 in a current lane 14 .
  • a first other road user 18, a second other road user 20 and a third other road user 21 are also driving on the road 12 in the current lane 14 or in the other lane 16.
  • the other road users 18, 20, 21 are passenger cars, but they could also be trucks, motorcycles or any other road user.
  • the dashed lines 22 and 24 indicate that the first other road user 18 is planning in the near future to change from the current lane 14 to the other lane 16 or that the second other road user 20 is planning in the near future to leave the other lane 16 to switch to the current lane 14 of the motor vehicle 10 .
  • This is indicated by the other road users 18, 20, for example, by using the corresponding direction indicator.
  • FIG. 1 shows a coordinate system with a longitudinal axis and a normal axis, the longitudinal axis defining a longitudinal direction L and the normal axis defining a transverse direction N.
  • the origin of the coordinate system is in the longitudinal direction L at the current position of the front of the motor vehicle 10 and, seen in the longitudinal direction L, on the right-hand side of the road.
  • motor vehicle 10 has a system 26 for controlling motor vehicle 10 .
  • System 26 includes a plurality of sensors 28 and at least one control unit 30.
  • the sensors 28 are arranged at the front, rear and/or side of the motor vehicle 10 and are designed to detect the surroundings of the motor vehicle 10 , to generate corresponding surroundings data and to forward them to the control unit 30 . More precisely, the sensors 28 record information at least about the current lane 14, the other lane 16 and the other road users 18, 20, 21.
  • the sensors 28 are in each case a camera, a radar sensor, a distance sensor, a LIDAR sensor and/or any other type of sensor that is suitable for detecting the surroundings of the motor vehicle 10 .
  • At least one of sensors 28 can be designed as an interface to a control system that is assigned to at least the section of road 12 shown and is designed to transmit environmental data about road 12 and/or about other road users 18, 20, 21 to the Motor vehicle 10 and / or to the other road users 18, 20, 21 to transmit.
  • one of the sensors 28 can be designed as a mobile radio communication module, for example for communication according to the 5G standard.
  • control unit 30 processes the environmental data received from the sensors 28 and controls the motor vehicle 10 based on the processed environmental data at least partially automatically, in particular fully automatically.
  • a driver assistance system is therefore implemented on control unit 30, which can control a transverse movement and/or a longitudinal movement of motor vehicle 10 at least partially automatically, in particular fully automatically.
  • control unit 30 is designed to carry out the method steps explained below with reference to FIGS. 3 to 10.
  • control unit 30 includes a data carrier 32 and a computing unit 34, data medium 32 storing a computer program which is executed on computing unit 34 and includes program code means for carrying out the steps of the method explained below.
  • step S1 environmental data are recorded by means of the sensors 28 (step S1).
  • the environmental data includes all information about the environment of motor vehicle 10 that is important for the automated control of motor vehicle 10.
  • the environmental data includes information about the properties of the current lane 14 and the properties of the other lane 16 as well as information about the other road users 18, 20, 21.
  • the information about the properties of the current lane 14 and the properties of the other lane 16 include one or more of the following elements: location and/or course of lane markings, type of lane markings, location and/or type of traffic signs, location and/or course of Crash barriers, location and/or circuit status of at least one traffic light, location of at least one parked vehicle.
  • the information about the other road users 18, 20, 21 includes a respective location of the other road users 18, 20, 21, a respective speed of the other road users 18, 20, 21 and/or a respective acceleration of the other road users 18, 20, 21 .
  • the information about the other road users 18, 20, 21 further a type of the respective Road users 18, 20, 21 include, for example, whether it is a car, a truck, a cyclist or a pedestrian.
  • the road 12 more precisely an image of the current lane 14 and the further lane 16 based on the environmental data received from the sensors 28, is transformed into a Frenet-Serret coordinate system (step S2).
  • Step S2 is illustrated in FIG. Figure 4(a) shows the road 12 as it actually runs.
  • the road viewed in the longitudinal direction L, curves to the left.
  • a local coordinate transformation transforms the road 12 into the Frenet-Serret coordinate system in which the road 12 no longer has any curvature, the result of this transformation being shown in FIG. 4(b).
  • the road 12 runs straight and without curvature along the longitudinal direction L in this coordinate system.
  • a utility value functional is determined, which assigns a utility value for the other road users 18, 20, 21 to various spatial areas of the road 12 at a predefined point in time (step S3).
  • a common utility value functional is determined for groups of other road users who are within a predefined distance from one another.
  • the first other road user 18 is far away from the other two other road users 20, 21. Therefore, a separate utility value functional is determined for the first additional road user.
  • the second and third other road users 20, 21, however, are close together.
  • a common utility value functional is therefore determined for the second and third additional road users 20, 21.
  • the road 12 is divided into a two-dimensional grid in order to determine the utility value function, with the individual grid points of the grid each representing a region of the road 12 .
  • the utility value functionals assign the corresponding utility value for the first additional road user 18 or for the group of second and third additional road users 20, 21 to each of the grid points.
  • the respective utility value at the individual grid points represents a cost-benefit analysis for the first additional road user 18 or for the group of second and third additional road users 20, 21 to go to the corresponding area.
  • a high utility value corresponds to high costs or a low benefit, while a low utility value corresponds to low costs or a high benefit.
  • the utility value is increased, for example, if traffic rules have to be broken in order to reach the corresponding area. Furthermore, the utility value is increased if predefined longitudinal and/or transverse distances to other road users are undercut, high accelerations are necessary, etc.
  • the utility value is reduced, for example, if the corresponding area of the road enables the destination to be reached quickly, collisions are safely avoided, the corresponding driving maneuver only requires low acceleration, etc.
  • step S3 is illustrated in FIG. 5, in which two exemplary plots of utility functionals are shown.
  • the utility value functional is a function U of the longitudinal coordinate L and the transverse coordinate N and assigns a utility value U(L,N) to the individual grid points with coordinates (L,N).
  • the utility functional is a superposition of several utility functions, each of which reflects one or more of the aspects mentioned above.
  • U RE is a contribution from road 12 boundaries to the utility functional.
  • areas outside the road 12 receive a maximum utility value, ie high costs, since the other road users 18, 20, 21 would have to leave the road 12 in order to get there.
  • U LM is a contribution of road markings and their type, traffic signs and their type and/or traffic lights and their switching status.
  • U ov is a contribution from other road users. This post reflects other road users blocking areas of the road. Furthermore, this contribution can also reflect the type of other road users 18, 20, 21 since, for example, a greater distance must be maintained from vulnerable road users.
  • U DV is a contribution from a desired speed to be achieved.
  • the utility functionals can be determined with a predefined frequency, so that a predefined number of utility functionals is determined over a predefined observation period.
  • the predefined frequency can be between 5 and 20 Hz, for example, in particular 8 to 15 Hz, for example 10 Hz.
  • the observation period can be between one second and five seconds, for example, in particular between two and three seconds.
  • the observation period extends from a starting point in the past to the present.
  • a two-dimensional representation of the corresponding utility value functional is determined for each of the determined utility value functionals (step S4).
  • the two-dimensional representations are each a two-dimensional image, with a color of the individual pixels being determined based on the value of the corresponding utility value at the corresponding grid point.
  • the value of the utility at the corresponding grid point is grayscale encoded.
  • any other suitable color scheme can also be used.
  • a higher value of the useful value can correspond to a darker pixel and a lower useful value to a lighter pixel in the two-dimensional representation.
  • a higher value of the useful value can also correspond to a lighter pixel and a lower useful value to a darker pixel in the two-dimensional representation.
  • a two-dimensional representation is determined for each of the utility value functionals that are determined at different times.
  • a two-dimensional representation is determined for a number of time strips in the observation period.
  • the obtained two-dimensional representations are stacked along the time direction so that a three-dimensional tensor is obtained (step S5).
  • each grid point (L,N) is assigned a color value of the corresponding pixel for each of the time strips.
  • a probable trajectory is determined for each of the other road users (step S6).
  • step S6 is illustrated in FIG. 7, which shows schematically the structure of a corresponding computer program and its computer program modules.
  • the computer program includes a pattern recognition module 36, a trajectory recognition module 38 and a trajectory determination module 40.
  • trajectory detection module 38 and the trajectory determination module 40 per se are already known from the publication "Convolutional Social Pooling for Vehicle Trajectory Prediction” by N.Deo and M.M. Trivedi, arXiv: 1805.06771, which was presented at the IEEE CVPR Workshop 2018.
  • the pattern recognition module 36 has an artificial neural network 42 and a flattening layer 44 .
  • the artificial neural network 42 is preferably designed as a convolutional neural network.
  • the artificial neural network 42 receives the determined three-dimensional tensor as an input variable and generates an output variable by means of pattern recognition.
  • the output variable of the artificial neural network 42 differs depending on the architecture of the artificial neural network 42.
  • FIG. 1 A first possible architecture of the artificial neural network is shown in FIG. 1
  • the artificial neural network 42 here has two-dimensional filter kernels and two-dimensional pooling layers.
  • All time strips of the three-dimensional tensor are processed here simultaneously by means of the two-dimensional filter kernel, with a depth of the filter kernel in the time direction corresponding to a number of input channels.
  • the number of input channels here is equal to the number of time strips of the three-dimensional tensor.
  • the output of the artificial neural network 42 is a two-dimensional matrix, which is converted into a vector by means of the flattening layer 44 .
  • FIG. 1 A second possible architecture of the artificial neural network is shown in FIG. 1
  • the artificial neural network 42 here has three-dimensional filter kernels and three-dimensional pooling layers.
  • the depth of the filter kernels in the time direction is smaller than the number of time strips of the three-dimensional tensor.
  • the filter kernels are also shifted along the time dimension, so that pattern recognition also takes place along the time dimension.
  • the output variable of the artificial neural network 42 is a three-dimensional output tensor here, which is converted into a vector by means of the flattening layer 44 .
  • the three-dimensional initial tensor can be converted directly into the vector, i.e. directly from three to one dimension.
  • one or more two-dimensional intermediate layers can also be provided, with the last intermediate layer then being converted into the vector.
  • the output of the pattern recognition module 36 is a vector in each case.
  • the trajectory recognition module 38 determines the previous trajectories of the other road users 18, 20, 21, the output variable of the trajectory recognition module 38 also being a vector.
  • the output vectors of the pattern recognition module 36 and the trajectory recognition module 38 are linked to one another and passed to the trajectory determination module 40 .
  • the trajectory determination module 40 determines the probable trajectory for each of the other road users 18, 20, 21, ie also separately for each other road user 20, 21 of a group.
  • the probable trajectory can be a family of trajectories. In other words, different possible trajectories together with their probabilities can be determined for each of the other road users 18, 20, 21.
  • the anticipated trajectories determined are then transferred to a driving maneuver planning module of motor vehicle 10 or of control unit 30 .
  • the driving maneuver planning module determines a driving maneuver to be carried out by motor vehicle 10 based on the anticipated trajectories and based on the environmental data.
  • an interaction of the motor vehicle 10 with the other road users 18, 20, 21 via the expected trajectories of the other road users 18, 20, 21 is taken into account.
  • the driving maneuver to be carried out is then transferred to a trajectory planning module of motor vehicle 10 or control unit 30 .
  • the trajectory planning module determines the specific trajectory that motor vehicle 10 should follow.
  • the motor vehicle can be controlled at least partially automatically, in particular fully automatically.
  • the individual time strips of the three-dimensional tensor are each processed in the pattern recognition module 36 by means of a two-dimensional filter kernel, as a result of which a two-dimensional matrix is generated as the output variable.
  • the two-dimensional filter kernels can each have the same weighting factors for the different time strips.
  • the two-dimensional matrices are each converted into a vector and combined with a corresponding state vector h t of the trajectory recognition module 38, where hi is the state vector for the time strip i.
  • the linked vectors are each the input variables for a feedback neural network (RNN) of the trajectory detection module 38, with the output variable of the feedback neural network serving as the input variable for the next feedback neural network or, in the case of the last feedback neural network, the output variable of the T rajectory detection module 38 represents.
  • RNN feedback neural network
  • the output variable of the trajectory recognition module 38 is transferred to the trajectory determination module 40, which then determines the probable trajectories of the other road users 18, 20, 21, for example by means of at least one additional feedback neural network.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

Ein Verfahren zum Steuern eines Kraftfahrzeugs ist beschrieben, das auf einer Straße in einer momentanen Fahrspur fährt. Umgebungsdaten werden mittels eines Sensors ermittelt. Wenigstens ein Nutzwertfunktionals wird basierend auf den Umgebungsdaten ermittelt, wobei das Nutzwertfunktional zu einem vordefinierten Zeitpunkt verschiedenen räumlichen Bereichen der momentanen Fahrspur und/oder wenigstens einer weiteren Fahrspur jeweils einen Nutzwert für wenigstens einen weiteren Verkehrsteilnehmer zuordnet. Eine zweidimensionale Repräsentation des wenigstens einen Nutzwertfunktionals wird ermittelt. Wenigstens eine voraussichtliche Trajektorie des wenigstens einen weiteren Verkehrsteilnehmers wird basierend auf der zweidimensionalen Repräsentation des Nutzwertfunktionals ermittelt, indem eine Mustererkennung auf die zweidimensionale Repräsentation angewendet wird. Ferner sind ein Steuergerät, ein Kraftfahrzeug und Computerprogramm beschrieben.

Description

Verfahren sowie Steuergerät zum Steuern eines Kraftfahrzeugs
Die Erfindung betrifft ein Verfahren zum Steuern eines Kraftfahrzeugs. Die Erfindung betrifft ferner ein Steuergerät für ein System zum Steuern eines Kraftfahrzeugs, ein Kraftfahrzeug sowie ein Computerprogramm.
Eine der Aufgaben von Fahrassistenzsystemen, die eine Längsbewegung und eine Querbewegung eines Kraftfahrzeugs teilweise automatisiert steuern, und vor allem für vollständig automatisiert fahrende Kraftfahrzeuge besteht darin, eine konkrete Situation, in der sich das Kraftfahrzeug befindet, zu analysieren und basierend darauf entsprechende sinnvolle Fahrmanöver für das Kraftfahrzeug in Echtzeit zu ermitteln und auszuführen.
Die Komplexität der Berechnung der Fahrmanöver steigt im Allgemeinen mit der Zeitdauer der einzelnen Fahrmanöver an. Sollen verschiedene, mögliche Fahrmanöver für einen längeren Zeitraum, beispielsweise länger als drei Sekunden, bestimmt werden oder handelt es sich um komplexe Fahrmanöver mit mehreren Spurwechseln, so sind bisher bekannte Verfahren oft nicht mehr in der Lage, diese in Echtzeit zu ermitteln.
Dies ist besonders dann der Fall, wenn weitere Verkehrsteilnehmer auf der Fahrbahn unterwegs sind, denn in diesem Fall muss auch noch berücksichtigt werden, dass die weiteren Verkehrsteilnehmer gegebenenfalls die Fahrspur wechseln, bremsen, beschleunigen etc.
Die Aufgabe der Erfindung ist es daher, ein Verfahren sowie ein Steuergerät zum Steuern eines Kraftfahrzeugs bereitzustellen, das mögliche Fahrmanöver von weiteren Verkehrsteilnehmern vorhersagt.
Die Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren zum Steuern eines Kraftfahrzeugs, das auf einer Straße in einer momentanen Fahrspur fährt, wobei das Kraftfahrzeug wenigstens einen Sensor aufweist, der dazu ausgebildet ist, zumindest einen vor dem Kraftfahrzeug liegenden Bereich der momentanen Fahrspur zu erfassen, und wobei sich auf der momentanen Fahrspur und/oder auf wenigstens einer weiteren Fahrspur wenigstens ein weiterer Verkehrsteilnehmer befindet. Das Verfahren umfasst die folgenden Schritte: Erfassen von Umgebungsdaten mittels des wenigstens einen Sensors, wobei die Umgebungsdaten Informationen über Eigenschaften der momentanen Fahrspur, über Eigenschaften der wenigstens einen weiteren Fahrspur und/oder über den wenigstens einen weiteren Verkehrsteilnehmer umfassen;
Ermitteln wenigstens eines Nutzwertfunktionais basierend auf den Umgebungsdaten, wobei das Nutzwertfunktional zu einem vordefinierten Zeitpunkt verschiedenen räumlichen Bereichen der momentanen Fahrspur und/oder der wenigstens einen weiteren Fahrspur jeweils einen Nutzwert für den wenigstens einen weiteren Verkehrsteilnehmer zuordnet;
Ermitteln einer zweidimensionalen Repräsentation des wenigstens einen Nutzwertfunktionais; und
Ermitteln wenigstens einer voraussichtlichen T rajektorie des wenigstens einen weiteren Verkehrsteilnehmers basierend auf der zweidimensionalen Repräsentation des Nutzwertfunktionais, indem eine Mustererkennung auf die zweidimensionale Repräsentation angewendet wird.
Der Nutzwert repräsentiert eine Kosten-Nutzen-Abwägung für den wenigstens einen weiteren Verkehrsteilnehmer, sich in den entsprechenden Bereich zu begeben
Dabei entspricht ein hoher Nutzwert hohen Kosten bzw. einem geringen Nutzen, während ein niedriger Nutzwert niedrigen Kosten bzw. einem hohen Nutzen entspricht.
Der Nutzwert wird beispielsweise erhöht, wenn Verkehrsregeln gebrochen werden müssen, um den entsprechenden Bereich zu erreichen. Ferner wird der Nutzwert erhöht, wenn vordefinierte Längs- und/oder Querabstände zu anderen Verkehrsteilnehmern unterschritten werden, hohe Beschleunigungen nötig sind etc.
Der Nutzwert wird beispielsweise gesenkt, wenn der entsprechende Bereich der Straße ein schnelles Erreichen des Ziels ermöglicht, Kollisionen sicher vermieden werden, das entsprechende Fahrmanöver nur geringe Beschleunigungen benötigt etc.
Die zweidimensionale Repräsentation ist eine Darstellung der Verkehrssituation in einer Umgebung des Kraftfahrzeugs zu einem bestimmten Zeitpunkt. Dementsprechend hat die zweidimensionale Repräsentation zwei räumliche Achsen, insbesondere wobei eine der räumlichen Achsen einer Fahrtrichtung des Kraftfahrzeugs entspricht und wobei die andere der räumlichen Achsen einer Querrichtung entspricht.
Das erfindungsgemäße Verfahren basiert auf dem Grundgedanken, die voraussichtliche Trajektorie des wenigstens einen weiteren Verkehrsteilnehmers nicht anhand eines konventionellen Algorithmus direkt aus dem Nutzwertfunktional zu berechnen, sondern stattdessen die zweidimensionale Repräsentation des Nutzwertfunktionais zu ermitteln und eine Mustererkennung auf die zweidimensionale Repräsentation anzuwenden. Die voraussichtliche T rajektorie wird dann basierend auf dieser Mustererkennung ermittelt.
Auf diese Weise wird eine natürliche Fahrweise von Menschen imitiert, die weniger auf einer direkten Berechnung aller relevanten Parameter als vielmehr auf einer erfahrungsbasierten Kosten-Nutzen-Abschätzung basiert.
Bei der voraussichtlichen T rajektorie kann es sich um eine Trajektorienschar handeln. Anders ausgedrückt können für den wenigstens einen weiteren Verkehrsteilnehmer verschiedene mögliche Trajektorien zusammen mit deren jeweiligen Wahrscheinlichkeit ermittelt werden.
Ein Aspekt der Erfindung sieht vor, dass zu mehreren vordefinierten Zeitpunkten, insbesondere in der Vergangenheit, jeweils eine zweidimensionale Repräsentation des entsprechenden Nutzwertfunktionais ermittelt wird, und wobei die wenigstens eine voraussichtliche Trajektorie des wenigstens einen weiteren Verkehrsteilnehmers basierend auf den zweidimensionalen Repräsentationen ermittelt wird, indem eine Mustererkennung auf die zweidimensionalen Repräsentationen angewendet wird. Die Menge an zweidimensionalen Repräsentationen zu verschiedenen Zeitpunkten stellt den zeitlichen Verlauf der Verkehrssituation über einen Beobachtungszeitraum hinweg dar. Anders ausgedrückt werden für den Beobachtungszeitraum mehrere Nutzwertfunktionale und deren jeweilige zweidimensionale Repräsentation ermittelt, die jeweils einen festen Zeitpunkt repräsentieren. Die Daten aus dem Beobachtungszeitraum werden dann genutzt, um die zukünftige Trajektorie des wenigstens einen weiteren Verkehrsteilnehmers vorherzusagen.
Der Beobachtungszeitraum kann beispielsweise zwischen einer Sekunde und fünf Sekunden betragen, insbesondere zwischen zwei und drei Sekunden.
Gemäß einem weiteren Aspekt der Erfindung wird basierend auf den zweidimensionalen Repräsentationen ein dreidimensionaler Tensor ermittelt, wobei die wenigstens eine voraussichtliche Trajektorie des wenigstens einen weiteren Verkehrsteilnehmers basierend auf dem Tensor ermittelt wird, indem eine Mustererkennung auf den Tensor angewendet wird. Anders ausgedrückt werden die aus dem Beobachtungszeitraum zur Verfügung stehenden Daten in einem einzelnen dreidimensionalen Tensor zusammengefasst, sodass für die Mustererkennung alle Daten aus dem Beobachtungszeitraum genutzt werden können.
Vorzugsweise werden die zweidimensionalen Repräsentationen entlang der Zeitdimension aufeinandergestapelt, um den Tensor zu ermitteln. Der dreidimensionale Tensor hat folglich zwei Dimensionen, welche den räumlichen Dimensionen der Straße entsprechen, sowie eine zeitliche Dimension.
In einer Ausgestaltung der Erfindung werden die verschiedenen räumlichen Bereiche als Gitterpunkte repräsentiert. Anders ausgedrückt wird die Straße in ein zweidimensionales Gitter eingeteilt, wobei die einzelnen Gitterpunkte des Gitters jeweils einen Bereich der Straße repräsentieren. Das Nutzwertfunktional ordnet jedem der Gitterpunkte jeweils den entsprechenden Nutzwert für den wenigstens einen weiteren Verkehrsteilnehmer zu.
Vorzugsweise wird die Mustererkennung mittels eines künstlichen neuronalen Netzwerks durchgeführt, insbesondere mittels eines Convolutional Neural Network. Künstliche neuronale Netzwerke, insbesondere Convolutional Neural Networks, sind besonders gut zur Mustererkennung in mehrdimensionalen Strukturen geeignet.
Ein weiterer Aspekt der Erfindung sieht vor, dass das künstliche neuronale Netzwerk zweidimensionale und/oder dreidimensionale Filterkernel aufweist und/oder dass das künstliche neuronale Netzwerk zweidimensionale oder dreidimensionale Poolingschichten aufweist.
Insbesondere weist das künstliche neuronale Netzwerk zweidimensionale Filterkernel und zweidimensionale Poolingschichten auf. Sämtliche Zeitstreifen des dreidimensionalen Tensors werden hier gleichzeitig mittels der zweidimensionalen Filterkernel verarbeitet, wobei eine Tiefe der Filterkernel in Zeitrichtung einer Anzahl von Eingangskanälen entspricht. Die Zahl der Eingangskanäle ist hier gleich der Zahl von Zeitstreifen des dreidimensionalen Tensors, also gleich der Zahl von zweidimensionalen Repräsentationen im Beobachtungszeitraum. Es hat sich herausgestellt, dass das künstliche neuronale Netzwerk in dieser Ausgestaltung der Erfindung leichter bzw. schneller zu trainieren ist und dass ein geringerer Datenmenge gespeichert werden muss.
Beispielsweise weist das künstliche neuronale Netzwerk dreidimensionale Filterkernel und dreidimensionale Poolingschichten auf. Dementsprechend wird hier nur eine vordefinierte Zahl von Zeitstreifen des dreidimensionalen Tensors gleichzeitig mittels der dreidimensionalen Filterkernel verarbeitet. Dementsprechend ist die Tiefe der Filterkernel in Zeitrichtung hier auch kleiner als die Zahl der Zeitstreifen des dreidimensionalen Tensors. Die Filterkernel werden zusätzlich zur Verschiebung entlang der Raumdimensionen auch entlang der Zeitdimension verschoben, sodass eine Mustererkennung auch entlang der Zeitdimension erfolgt. Es hat sich herausgestellt, dass das künstliche neuronale Netzwerk in dieser Ausgestaltung der Erfindung zwar schwerer zu trainieren ist, dass jedoch die Genauigkeit der voraussichtlichen T rajektorie des wenigstens einen weiteren Verkehrsteilnehmers wesentlich verbessert wird.
Weiter bevorzugt wird das künstliche neuronale Netzwerk vor dem Einsatz im Kraftfahrzeug mit einem Trainingsdatensatz trainiert. Dies bietet zum einen den Vorteil, dass für jedes Kraftfahrzeug der gleiche Trainingsdatensatz verwendet werden kann, sodass nicht jedes Kraftfahrzeug erst im Einsatz trainiert werden muss. Zum anderen bietet dies den Vorteil, dass das zeit- und rechenintensive Training des künstlichen neuronalen Netzwerks zentral auf einem dementsprechend mit Rechenressourcen ausgestatteten Computer oder Computernetzwerk durchgeführt werden kann.
Gemäß einer Ausgestaltung der Erfindung ist die zweidimensionale Repräsentation ein zweidimensionales Bild, insbesondere wobei eine Farbe der einzelnen Bildpunkte basierend auf dem Wert des entsprechenden Nutzwerts ermittelt wird. Anders ausgedrückt wird die momentane Verkehrssituation also in eines oder mehrere Bilder übersetzt. Die Prognose der voraussichtlichen T rajektorie des wenigstens einen weiteren Verkehrsteilnehmers erfolgt dann basierend auf der Mustererkennung, die auf das bzw. die Bilder angewendet wird.
Beispielsweise ist der Wert des Nutzwerts in der zweidimensionalen Repräsentation, insbesondere an den entsprechenden Gitterpunkten, in Graustufen codiert. Alternativ kann jedoch auch ein beliebiges anderes, geeignetes Farbschema verwendet werden.
Dabei kann ein höherer Wert des Nutzwerts einem dunkleren Bildpunkt in der zweidimensionalen Repräsentation und ein niedrigerer Nutzwert einem helleren Bildpunkt in der zweidimensionalen Repräsentation entsprechen. Selbstverständlich kann alternativ auch ein höherer Wert des Nutzwerts einem helleren Bildpunkt und ein niedrigerer Nutzwert einem dunkleren Bildpunkt in der zweidimensionalen Repräsentation entsprechen.
Gemäß einer weiteren Ausgestaltung der Erfindung werden weitere Verkehrsteilnehmer, die sich räumlich innerhalb eines vordefinierten Abstands voneinander befinden, als eine Gruppe von weiteren Verkehrsteilnehmern angesehen, wobei für die Gruppe von weiteren Verkehrsteilnehmern ein gemeinsames Nutzwertfunktional ermittelt wird. Dadurch wird Rechenzeit eingespart, da nicht für jeden weiteren Verkehrsteilnehmer ein eigenes Nutzwertfunktional bzw. ein eigener Tensor ermittelt werden muss.
Beispielsweise wird für jeden der weiteren Verkehrseilnehmer eine eigene voraussichtliche Trajektorie berechnet.
Ein weiterer Aspekt der Erfindung sieht vor, dass, insbesondere für jeden weiteren Verkehrsteilnehmer der Gruppe, eine bisherige T rajektorie des wenigstens einen weiteren Verkehrsteilnehmers ermittelt wird, wobei die wenigstens eine voraussichtliche Trajektorie des wenigstens einen weiteren Verkehrsteilnehmers basierend auf der ermittelten bisherigen T rajektorie ermittelt wird, insbesondere wobei das Ergebnis der Mustererkennung und die bisherige T rajektorie einem künstlichen neuronalen Netz zugeführt werden, das die wenigstens eine voraussichtliche Trajektorie ermittelt.
Anders ausgedrückt wird die voraussichtliche Trajektorie des wenigstens einen weiteren Verkehrsteilnehmers also basierend auf einer Kombination aus Mustererkennung und Beobachtung der bisherigen T rajektorie ermittelt, insbesondere mittels eines weiteren künstlichen neuronalen Netzwerks, dessen Eingangsdaten das Ergebnis der Musterkennung und die ermittelte bisherige T rajektorie sind.
Insbesondere wird die bisherige T rajektorie mittels eines T rajektorienerkennungsmoduls ermittelt. Die voraussichtliche Trajektorie kann mittels eines T rajektorienermittlungsmoduls erfolgen. Es sei darauf hingewiesen, dass der Aufbau und die Funktionsweise des T rajektorienerkennungsmoduls und des T rajektorienermittlungsmoduls per se bereits aus der Veröffentlichung „Convolutional Social Pooling for Vehicle T rajectory Prediction“ von N.Deo und M.M. Trivedi, arXiv: 1805.06771 bekannt ist, welche auf dem IEEE CVPR Workshop 2018 vorgestellt wurde.
Erfindungsgemäß werden diese Module jedoch mit einer Mustererkennung kombiniert, welche Muster in den zweidimensionalen Repräsentationen bzw. in dem dreidimensionalen Tensor erkennt.
Die Informationen über die Eigenschaften der momentanen Fahrspur und/oder über die Eigenschaften der wenigstens einen weiteren Fahrspur können wenigstens eines der folgenden Elemente umfassen: Ort und/oder Verlauf von Fahrbahnmarkierungen, Art der Fahrbahnmarkierungen, Ort und/oder Art von Verkehrszeichen, Ort und/oder Verlauf von Leitplanken, Ort und/oder Schaltungszustand wenigstens einer Ampel, Ort von wenigstens einem geparkten Fahrzeug.
Beispielsweise umfassen die Informationen über den wenigstens einen weiteren Verkehrsteilnehmer einen Ort des wenigstens einen weiteren Verkehrsteilnehmers, eine Geschwindigkeit des wenigstens einen weiteren Verkehrsteilnehmers und/oder eine Beschleunigung des wenigstens einen weiteren Verkehrsteilnehmers.
Ein Aspekt der Erfindung sieht vor, dass die wenigstens eine voraussichtliche T rajektorie an ein Fahrmanöverplanungsmodul des Kraftfahrzeugs übergeben wird. Allgemein ausgedrückt ermittelt das Fahrmanöverplanungsmodul basierend auf der wenigstens einen voraussichtlichen T rajektorien sowie basierend auf den Umgebungsdaten ein vom Kraftfahrzeug auszuführendes Fahrmanöver. Dabei wird eine Wechselwirkung des Kraftfahrzeugs mit den weiteren Verkehrsteilnehmern über die voraussichtlichen T rajektorien der weiteren Verkehrsteilnehmer berücksichtigt. Das auszuführende Fahrmanöver wird dann an ein T rajektorienplanungsmodul des Kraftfahrzeugs übergeben. Das T rajektorienplanungsmodul ermittelt basierend auf dem erhaltenen Fahrmanöver die konkrete Trajektorie, welcher das Kraftfahrzeug folgen soll.
Das Kraftfahrzeug kann dann basierend auf der ermittelten Trajektorie wenigstens teilweise, insbesondere vollständig automatisch gesteuert werden.
Insbesondere werden bzw. wird zumindest die momentane Fahrspur und/oder die wenigstens eine weitere Fahrspur in ein Frenet-Serret-Koordinatensystem transformiert. In diesem Koordinatensystem ist jede Straße krümmungsfrei, sodass unabhängig von einem tatsächlichen Verlauf der Straße jede Straßenverkehrssituation auf die gleiche Art und Weise behandelt werden kann.
Die Aufgabe wird ferner erfindungsgemäß gelöst durch Steuergerät für ein System zum Steuern eines Kraftfahrzeugs oder für ein Kraftfahrzeug, wobei das Steuergerät dazu ausgebildet ist, das oben beschriebene Verfahren durchzuführen.
Hinsichtlich der Vorteile und Eigenschaften des Steuergeräts wird auf die obigen Erläuterungen bezüglich des Verfahrens verweisen, welche ebenso für das Steuergerät gelten und umgekehrt.
Die Aufgabe wird ferner erfindungsgemäß gelöst durch ein Kraftfahrzeug mit einem oben beschriebenen Steuergerät.
Hinsichtlich der Vorteile und Eigenschaften des Kraftfahrzeugs wird auf die obigen Erläuterungen bezüglich des Verfahrens verweisen, welche ebenso für das Kraftfahrzeug gelten und umgekehrt.
Die Aufgabe wird ferner erfindungsgemäß gelöst durch ein Computerprogramm mit Programmcodemitteln, um die Schritte eines oben beschriebenen Verfahrens durchzuführen, wenn das Computerprogramm auf einem Computer oder einer entsprechenden Recheneinheit ausgeführt wird, insbesondere einer Recheneinheit eines oben beschriebenen Steuergeräts. Hinsichtlich der Vorteile und Eigenschaften des Computerprogramms wird auf die obigen Erläuterungen bezüglich des Verfahrens verweisen, welche ebenso für das Computerprogramm gelten und umgekehrt.
Unter „Programmcodemitteln“ sind dabei und im Folgenden computerausführbare Instruktionen in Form von Programmcode und/oder Programmcodemodulen in kompilierter und/oder in unkompilierter Form zu verstehen, die in einer beliebigen Programmiersprache und/oder in Maschinensprache vorliegen können.
Weitere Vorteile und Eigenschaften der Erfindung ergeben sich aus der nachfolgenden Beschreibung und den beigefügten Zeichnungen, auf die Bezug genommen wird. In diesen zeigen:
- Figur 1 schematisch eine Straßenverkehrssituation;
- Figur 2 ein schematisches Blockschaltbild eines Systems zum Steuern eines Kraftfahrzeugs mittels eines erfindungsgemäßen Verfahrens;
- Figur 3 ein Ablaufdiagramm der Schritte eines erfindungsgemäßen Verfahrens;
- die Figuren 4(a) und 4(b) schematisch eine Straße vor einer T ransformation in ein Frenet-Serret-Koordinatensystem bzw. die Straße nach einer Transformation in ein Frenet-Serret-Koordinatensystem;
- Figur 5 beispielhafte Plots von Nutzwertfunktionalen;
- Figur 6 schematisch ein Stapel von zweidimensionalen Repräsentationen eines der Nutzwertfunktionale von Figur 5 zu verschiedenen Zeitpunkten;
- Figur 7 ein schematisches Blockdiagramm eines Computerprogramms zur Durchführung des erfindungsgemäßen Verfahrens;
- Figur 8 schematisch eine erste mögliche Architektur eines künstlichen neuronalen Netzwerks des Computerprogramms von Figur 7;
- Figur 9 schematisch eine zweite mögliche Architektur eines künstlichen neuronalen Netzwerks des Computerprogramms von Figur 7; und
- Figur 10 schematisch eine alternative Architektur des Computerprogramms von Figur 7. In Figur 1 ist schematisch eine Straßenverkehrssituation gezeigt, in der ein Kraftfahrzeug 10 auf einer Straße 12 in einer momentanen Fahrspur 14 fährt. Neben der momentanen Fahrspur 14 verläuft eine weitere Fahrspur 16.
Auf der Straße 12 fahren außerdem ein erster weiterer Verkehrsteilnehmer 18, ein zweiter weiterer Verkehrsteilnehmer 20 sowie ein dritter weiterer Verkehrsteilnehmer 21 in der momentanen Fahrspur 14 bzw. in der weiteren Fahrspur 16. Im gezeigten Beispiel handelt es sich bei den weiteren Verkehrsteilnehmern 18, 20, 21 um Personenkraftwagen, es könnte sich jedoch auch um Lastkraftwagen, Krafträder oder um beliebige andere Verkehrsteilnehmer handeln.
Durch die gestrichelten Linien 22 und 24 ist angedeutet, dass der erste weitere Verkehrsteilnehmer 18 in naher Zukunft plant, von der momentanen Fahrspur 14 in die weitere Fahrspur 16 zu wechseln bzw. dass der zweite weitere Verkehrsteilnehmer 20 in naher Zukunft plant, von der weiteren Fahrspur 16 in die momentane Fahrspur 14 des Kraftfahrzeugs 10 zu wechseln. Dies zeigen die weiteren Verkehrsteilnehmer 18, 20 zum Beispiel durch Verwendung des entsprechenden Fahrtrichtungsanzeigers an.
Zudem ist in Figur 1 ein Koordinatensystem mit einer Längsachse und einer Normalenachse gezeigt, wobei die Längsachse eine Längsrichtung L definiert und wobei die Normalenachse eine Querrichtung N definiert. Der Ursprung des Koordinatensystems liegt in Längsrichtung L an der momentanen Position der Spitze des Kraftfahrzeugs 10 und, in Längsrichtung L gesehen, am rechten Straßenrand.
Bei diesem speziellen Koord i natensystem , das auch im Folgenden verwendet wird, handelt es sich um ein straßenfestes Koordinatensystem, das sich also folglich nicht mit dem Kraftfahrzeug 10 mitbewegt. Natürlich kann aber auch ein beliebiges, anderes Koord i natensystem verwendet werden. Wie in Figur 2 gezeigt ist, weist das Kraftfahrzeug 10 ein System 26 zum Steuern des Kraftfahrzeugs 10 auf. Das System 26 umfasst mehrere Sensoren 28 und zumindest ein Steuergerät 30.
Die Sensoren 28 sind vorne, hinten und/oder seitlich am Kraftfahrzeug 10 angeordnet und dazu ausgebildet, die Umgebung des Kraftfahrzeugs 10 zu erfassen, entsprechende Umgebungsdaten zu generieren und diese an das Steuergerät 30 weiterzuleiten. Genauer gesagt erfassen die Sensoren 28 Informationen zumindest über die momentane Fahrspur 14, die weitere Fahrspur 16 und über die weiteren Verkehrsteilnehmer 18, 20, 21.
Bei den Sensoren 28 handelt es sich jeweils um eine Kamera, um einen Radarsensor, um einen Abstandssensor, um einen LIDAR-Sensor und/oder um eine beliebige andere Art von Sensor, die dazu geeignet ist, die Umgebung des Kraftfahrzeugs 10 zu erfassen.
Alternativ oder zusätzlich kann zumindest einer der Sensoren 28 als Schnittstelle zu einem Leitsystem ausgebildet sein, das wenigstens dem gezeigten Abschnitt der Straße 12 zugeordnet und dazu ausgebildet ist, Umgebungsdaten über die Straße 12 und/oder über die weiteren Verkehrsteilnehmer 18, 20, 21 an das Kraftfahrzeug 10 und/oder an die weiteren Verkehrsteilnehmer 18, 20, 21 zu übermitteln. Einer der Sensoren 28 kann in diesem Fall als Mobilfunkkommunikationsmodul ausgeführt sein, zum Beispiel zur Kommunikation gemäß dem 5G Standard.
Allgemein ausgedrückt verarbeitet das Steuergerät 30 die von den Sensoren 28 erhaltenen Umgebungsdaten und steuert das Kraftfahrzeug 10 basierend auf den verarbeiteten Umgebungsdaten wenigstens teilweise automatisiert, insbesondere vollautomatisch. Auf dem Steuergerät 30 ist also ein Fahrassistenzsystem implementiert, das eine Querbewegung und/oder eine Längsbewegung des Kraftfahrzeugs 10 wenigstens teilweise automatisiert steuern kann, insbesondere vollautomatisch. Zu diesem Zweck ist das Steuergerät 30 dazu ausgebildet, die im Folgenden anhand der Figuren 3 bis 10 erläuterten Verfahrensschritte durchzuführen.
Genauer gesagt umfasst das Steuergerät 30 einen Datenträger 32 und eine Recheneinheit 34, wobei auf dem Datenträger 32 ein Computerprogramm gespeichert ist, das auf der Recheneinheit 34 ausgeführt wird und das Programmcodemittel umfasst, um die Schritte des im Folgenden erläuterten Verfahrens durchzuführen.
Zunächst werden mittels der Sensoren 28 Umgebungsdaten erfasst (Schritt S1).
Allgemein ausgedrückt umfassen die Umgebungsdaten alle für die automatisierte Steuerung des Kraftfahrzeugs 10 wichtigen Informationen über die Umgebung des Kraftfahrzeugs 10.
Genauer gesagt umfassen die Umgebungsdaten Informationen über die Eigenschaften der momentanen Fahrspur 14 und die Eigenschaften der weiteren Fahrspur 16 sowie Informationen über die weiteren Verkehrsteilnehmer 18, 20, 21.
Die Informationen über die Eigenschaften der momentanen Fahrspur 14 und die Eigenschaften der weiteren Fahrspur 16 umfassen eines oder mehrere der folgenden Elemente: Ort und/oder Verlauf von Fahrbahnmarkierungen, Art der Fahrbahnmarkierungen, Ort und/oder Art von Verkehrszeichen, Ort und/oder Verlauf von Leitplanken, Ort und/oder Schaltungszustand wenigstens einer Ampel, Ort von wenigstens einem geparkten Fahrzeug.
Ferner umfassen die Informationen über die weiteren Verkehrsteilnehmer 18, 20, 21 einen jeweiligen Ort der weiteren Verkehrsteilnehmer 18, 20, 21, eine jeweilige Geschwindigkeit der weiteren Verkehrsteilnehmer 18, 20, 21 und/oder eine jeweilige Beschleunigung der weiteren Verkehrsteilnehmer 18, 20, 21.
Es ist auch denkbar, dass die Informationen über die weiteren Verkehrsteilnehmer 18, 20, 21 eine Art des jeweiligen weitern Verkehrsteilnehmers 18, 20, 21 umfassen, also beispielsweise ob es sich um ein KFZ, um einen LKW, einen Fahrradfahrer oder um einen Fußgänger handelt.
Die Straße 12, genauer gesagt ein auf den von den Sensoren 28 erhaltenen Umgebungsdaten basierendes Abbild der momentanen Fahrspur 14 und der weiteren Fahrspur 16, wird in ein Frenet-Serret-Koordinatensystem transformiert (Schritt S2).
Der Schritt S2 ist in Figur 4 illustriert. Figur 4 (a) zeigt die Straße 12, wie sie tatsächlich verläuft. Im gezeigten Beispiel weist die Straße, in Längsrichtung L gesehen, eine Krümmung nach links auf. Durch eine lokale Koordinatentransformation wird die Straße 12 in das Frenet-Serret- Koordinatensystem transformiert, in dem die Straße 12 keine Krümmung mehr aufweist, wobei das Ergebnis dieser T ransformation in Figur 4 (b) gezeigt ist. Wie klar zu erkennen ist, verläuft die Straße 12 in diesem Koordinatensystem gerade und ohne Krümmung entlang der Längsrichtung L.
Basierend auf den ermittelten Umgebungsdaten wird ein Nutzwertfunktional ermittelt, das zu einem vordefinierten Zeitpunkt verschiedenen räumlichen Bereichen der Straße 12 jeweils einen Nutzwert für die weiteren Verkehrsteilnehmer 18, 20, 21 zuordnet (Schritt S3).
Genauer gesagt wird jeweils ein gemeinsames Nutzwertfunktional für Gruppen von weiteren Verkehrsteilnehmern ermittelt, die sich innerhalb eines vordefinierten Abstands voneinander befinden.
Im Beispiel von Figur 1 ist der erste weitere Verkehrsteilnehmer 18 weit von den anderen beiden weiteren Verkehrsteilnehmern 20, 21 entfernt. Daher wird für den ersten weiteren Verkehrsteilnehmer ein eigenes Nutzwertfunktional ermittelt.
Der zweite und der dritte weitere Verkehrsteilnehmer 20, 21 befinden sich hingegen nahe beieinander. Daher wird für den zweiten und den dritten weiteren Verkehrsteilnehmer 20, 21 ein gemeinsames Nutzwertfunktional ermittelt. Für die Ermittlung der Nutzwertfunktionale wird die Straße 12 in ein zweidimensionales Gitter eingeteilt, wobei die einzelnen Gitterpunkte des Gitters jeweils einen Bereich der Straße 12 repräsentieren.
Die Nutzwertfunktionale ordnen jedem der Gitterpunkte jeweils den entsprechenden Nutzwert für den ersten weiteren Verkehrsteilnehmer 18 bzw. für die Gruppe aus zweitem und drittem weiteren Verkehrsteilnehmer 20, 21 zu.
Der jeweilige Nutzwert an den einzelnen Gitterpunkten repräsentiert eine Kosten- Nutzen-Abwägung für den ersten weiteren Verkehrsteilnehmer 18 bzw. für die Gruppe aus zweitem und drittem weiteren Verkehrsteilnehmer 20, 21, sich in den entsprechenden Bereich zu begeben.
Dabei entspricht ein hoher Nutzwert hohen Kosten bzw. einem geringen Nutzen, während ein niedriger Nutzwert niedrigen Kosten bzw. einem hohen Nutzen entspricht.
Der Nutzwert wird beispielsweise erhöht, wenn Verkehrsregeln gebrochen werden müssen, um den entsprechenden Bereich zu erreichen. Ferner wird der Nutzwert erhöht, wenn vordefinierte Längs- und/oder Querabstände zu anderen Verkehrsteilnehmern unterschritten werden, hohe Beschleunigungen nötig sind etc.
Der Nutzwert wird beispielsweise gesenkt, wenn der entsprechende Bereich der Straße ein schnelles Erreichen des Ziels ermöglicht, Kollisionen sicher vermieden werden, das entsprechende Fahrmanöver nur geringe Beschleunigungen benötigt etc.
Das Ergebnis von Schritt S3 ist in Figur 5 illustriert, in der zwei beispielhafte Plots von Nutzwertfunktionalen dargestellt sind.
Wie in Figur 5 gezeigt ist, ist das Nutzwertfunktional eine Funktion U der Längskoordinate L sowie der Querkoordinate N und ordnet den einzelnen Gitterpunkten mit Koordinaten (L,N) jeweils einen Nutzwert U(L,N) zu. Insbesondere ist das Nutzwertfunktional eine Superposition aus mehreren Nutzwertfunktionen, die jeweils einen oder mehrere der oben genannten Aspekte widerspiegeln.
Beispielsweise wird das Nutzwertfunktional gemäß der Formel
U = URE + ULM + U0v + UDV bestimmt.
Dabei ist URE ein Beitrag von Begrenzungen der Straße 12 zum Nutzwertfunktional. Bereiche außerhalb der Straße 12 erhalten im Beispiel von Figur 5 einen maximalen Nutzwert, also hohe Kosten, da die weiteren Verkehrsteilnehmer 18, 20, 21 die Straße 12 verlassen müssten, um dorthin zu gelangen.
ULM ist ein Beitrag von Fahrbahnmarkierungen sowie deren Art, von Verkehrsschildern sowie deren Art und/oder von Ampeln sowie deren Schaltzustand.
Uov ist ein Beitrag anderer Verkehrsteilnehmer. Dieser Beitrag spiegelt wider, dass andere Verkehrsteilnehmer Bereiche der Straße blockieren. Ferner kann dieser Beitrag auch die Art des weiteren Verkehrsteilnehmers 18, 20, 21 widerspiegeln, da z.B. zu verletzlichen Verkehrsteilnehmern ein größerer Abstand eingehalten werden muss.
UDV ist ein Beitrag von einer gewünschten zu erreichenden Geschwindigkeit. Wie durch die drei Punkte zwischen den beiden in Figur 5 dargestellten Plots der Nutzwertfunktionale angedeutet ist, können die Nutzwertfunktionale mit einer vordefinierten Frequenz ermittelt werden, sodass über einen vordefinierten Beobachtungszeitraum hinweg eine vordefinierte Zahl von Nutzwertfunktionalen ermittelt wird.
Die vordefinierte Frequenz kann beispielsweise zwischen 5 und 20 Hz betragen, insbesondere 8 bis 15 Hz, zum Beispiel 10 Hz.
Anders ausgedrückt werden für den Beobachtungszeitraum mehrere Nutzwertfunktionale ermittelt, die jeweils einem festen Zeitpunkt zugeordnet sind. Der Beobachtungszeitraum kann beispielsweise zwischen einer Sekunde und fünf Sekunden betragen, insbesondere zwischen zwei und drei Sekunden. Der Beobachtungszeitraum erstreckt sich dabei in der Vergangenheit von einem Startzeitpunkt ausgehend bis zur Gegenwart.
Für jedes der ermittelten Nutzwertfunktionale wird jeweils eine zweidimensionale Repräsentation des entsprechenden Nutzwertfunktionais ermittelt (Schritt S4).
Bei den zweidimensionalen Repräsentationen handelt es sich jeweils um ein zweidimensionales Bild, wobei eine Farbe der einzelnen Bildpunkte basierend auf dem Wert des entsprechenden Nutzwerts an dem entsprechenden Gitterpunkt ermittelt wird.
Insbesondere ist der Wert des Nutzwerts am entsprechenden Gitterpunkt in Graustufen codiert. Alternativ kann jedoch auch ein beliebiges anderes, geeignetes Farbschema verwendet werden.
Dabei kann ein höherer Wert des Nutzwerts einem dunkleren Bildpunkt und ein niedrigerer Nutzwert einem helleren Bildpunkt in der zweidimensionalen Repräsentation entsprechen.
Selbstverständlich kann alternativ auch ein höherer Wert des Nutzwerts einem helleren Bildpunkt und ein niedrigerer Nutzwert einem dunkleren Bildpunkt in der zweidimensionalen Repräsentation entsprechen.
Wie in Figur 6 illustriert ist, wird für jedes der Nutzwertfunktionale, die zu verschiedenen Zeiten ermittelt werden, jeweils eine zweidimensionale Repräsentation ermittelt.
Anders ausgedrückt wird für mehrere Zeitstreifen im Beobachtungszeitraum jeweils eine zweidimensionale Repräsentation ermittelt.
Die ermittelten zweidimensionalen Repräsentationen werden entlang der Zeitrichtung aufeinandergestapelt, sodass ein dreidimensionaler Tensor erhalten wird (Schritt S5). ln dem dreidimensionalen Tensor ist dementsprechend jedem Gitterpunkt (L,N) für jeden der Zeitstreifen jeweils ein Farbwert des entsprechenden Bildpunkts zugeordnet.
Basierend auf dem dreidimensionalen Tensor wird für jeden der weiteren Verkehrsteilnehmer jeweils eine voraussichtliche Trajektorie ermittelt (Schritt S6).
Der Ablauf von Schritt S6 ist in Figur 7 illustriert, die schematisch den Aufbau eines entsprechenden Computerprogramms und dessen Computerprogrammmodule zeigt.
Das Computerprogramm umfasst ein Mustererkennungsmodul 36, ein T rajektorienerkennungsmodul 38 und ein T rajektorienermittlungsmodul 40.
Es sei darauf hingewiesen, dass der Aufbau und die Funktionsweise des T rajektorienerkennungsmoduls 38 und des T rajektorienermittlungsmoduls 40 per se bereits aus der Veröffentlichung „Convolutional Social Pooling for Vehicle T rajectory Prediction“ von N.Deo und M.M. Trivedi, arXiv: 1805.06771 bekannt ist, welche auf dem IEEE CVPR Workshop 2018 vorgestellt wurde.
Dementsprechend wird im Folgenden lediglich der Aufbau und die Funktionsweise des Mustererkennungsmoduls 36 näher beschrieben.
Das Mustererkennungsmodul 36 weist ein künstliches neuronales Netzwerk 42 und eine Flatteningschicht 44 auf.
Vorzugsweise ist das künstliche neuronale Netzwerk 42 als Convolutional Neural Network ausgebildet.
Allgemein ausgedrückt erhält das künstliche neuronale Netzwerk 42 den ermittelten dreidimensionalen Tensor als Eingangsgröße und erzeugt mittels einer Mustererkennung eine Ausgangsgröße. Die Ausgangsgröße des künstlichen neuronalen Netzwerks 42 unterscheidet sich dabei je nach Architektur des künstlichen neuronalen Netzwerks 42.
In Figur 8 ist eine erste mögliche Architektur des künstlichen neuronalen Netzwerks gezeigt.
Das künstliche neuronale Netzwerk 42 weist hier zweidimensionale Filterkernel und zweidimensionale Poolingschichten auf.
Sämtliche Zeitstreifen des dreidimensionalen Tensors werden hier gleichzeitig mittels der zweidimensionalen Filterkernel verarbeitet, wobei eine Tiefe der Filterkernel in Zeitrichtung einer Anzahl von Eingangskanälen entspricht. Die Zahl der Eingangskanäle ist hier gleich der Zahl von Zeitstreifen des dreidimensionalen Tensors.
Die Ausgangsgröße des künstlichen neuronalen Netzwerks 42 ist eine zweidimensionale Matrix, die mittels der Flatteningschicht 44 in einen Vektor überführt wird.
In Figur 9 ist eine zweite mögliche Architektur des künstlichen neuronalen Netzwerks gezeigt.
Das künstliche neuronale Netzwerk 42 weist hier dreidimensionale Filterkernel und dreidimensionale Poolingschichten auf.
Dementsprechend wird nur eine vordefinierte Zahl von Zeitstreifen des dreidimensionalen Tensors gleichzeitig mittels der dreidimensionalen Filterkernel verarbeitet. Dementsprechend ist die Tiefe der Filterkernel in Zeitrichtung kleiner als die Zahl der Zeitstreifen des dreidimensionalen Tensors.
Die Filterkernel werden hier zusätzlich zur Verschiebung entlang der Raumdimensionen auch entlang der Zeitdimension verschoben, sodass eine Mustererkennung auch entlang der Zeitdimension erfolgt. Die Ausgangsgröße des künstlichen neuronalen Netzwerks 42 ist hier ein dreidimensionaler Ausgangstensor, der mittels der Flatteningschicht 44 in einen Vektor überführt wird.
Der dreidimensionale Ausgangstensor kann direkt in den Vektor überführt werden, also direkt von drei auf eine Dimension.
Alternativ können auch eine oder mehrere zweidimensionale Zwischenschichten vorgesehen sein, wobei die letzte Zwischenschicht dann in den Vektor überführt wird.
Dementsprechend ist in beiden oben erläuterten Fällen die Ausgangsgröße des Mustererkennungsmoduls 36 jeweils ein Vektor.
Die weiteren Schritte zur Bestimmung der voraussichtlichen Trajektorien der weiteren Verkehrsteilnehmer 18, 20, 21 verlaufen dann im Wesentlichen wie in „Convolutional Social Pooling for Vehicle Trajectory Prediction“ von N.Deo und M.M. Trivedi, arXiv: 1805.06771, beschrieben.
Das T rajektorienerkennungsmodul 38 bestimmt die bisherigen Trajektorien der weiteren Verkehrsteilnehmer 18, 20, 21, wobei die Ausgangsgröße des T rajektorienerkennungsmoduls 38 ebenfalls ein Vektor ist.
Die Ausgangsvektoren des Mustererkennungsmoduls 36 und des T rajektorienerkennungsmoduls 38 werden miteinander verknüpft und dem T rajektorienermittlungsmodul 40 übergeben.
Das T rajektorienermittlungsmodul 40 ermittelt basierend auf den verknüpften Ausgangsvektoren des Mustererkennungsmoduls 36 und des T rajektorienerkennungsmoduls 38 für jeden der weiteren Verkehrsteilnehmer 18, 20, 21, d.h. auch für jeden weiteren Verkehrsteilnehmer 20, 21 einer Gruppe separat, jeweils die voraussichtliche Trajektorie. Bei der voraussichtlichen T rajektorie kann es sich um eine Trajektorienschar handeln. Anders ausgedrückt können für jeden der weiteren Verkehrsteilnehmer 18, 20, 21 jeweils verschiedene mögliche T rajektorien zusammen mit deren Wahrscheinlichkeiten ermittelt werden.
Die ermittelten voraussichtlichen T rajektorien werden dann an ein Fahrmanöverplanungsmodul des Kraftfahrzeugs 10 bzw. des Steuergeräts 30 übergeben.
Allgemein ausgedrückt ermittelt das Fahrmanöverplanungsmodul basierend auf den voraussichtlichen T rajektorien sowie basierend auf den Umgebungsdaten ein vom Kraftfahrzeug 10 auszuführendes Fahrmanöver. Dabei wird eine Wechselwirkung des Kraftfahrzeugs 10 mit den weiteren Verkehrsteilnehmern 18, 20, 21 über die voraussichtlichen T rajektorien der weiteren Verkehrsteilnehmer 18, 20, 21 berücksichtigt.
Das auszuführende Fahrmanöver wird dann an ein T rajektorienplanungsmodul des Kraftfahrzeugs 10 bzw. des Steuergeräts 30 übergeben. Das T rajektorienplanungsmodul ermittelt basierend auf dem erhaltenen Fahrmanöver die konkrete Trajektorie, welcher das Kraftfahrzeug 10 folgen soll.
Schließlich kann das Kraftfahrzeug basierend auf der ermittelten Trajektorie wenigstens teilweise automatisch, insbesondere vollautomatisch gesteuert werden.
In Figur 10 ist eine alternative Ausführungsform des Computerprogramms von Figur 7 gezeigt.
Hier werden die einzelnen Zeitstreifen des dreidimensionalen Tensors im Mustererkennungsmodul 36 jeweils mittels eines zweidimensionalen Filterkernels verarbeitet, wodurch jeweils eine zweidimensionale Matrix als Ausgangsgröße generiert wird.
Anders ausgedrückt wird also immer nur ein Zeitstreifen gleichzeitig verarbeitet. Dabei können die zweidimensionalen Filterkernel für die verschiedenen Zeitstreifen jeweils die gleichen Gewichtungsfaktoren aufweisen.
Die zweidimensionale Matrizen werden jeweils in einen Vektor überführt und mit einem entsprechenden Zustandsvektor ht des T rajektorienerkennungsmoduls 38 verknüpft, wobei hi der Zustandsvektor für den Zeitstreifen i ist.
Die verknüpften Vektoren sind hier jeweils die Eingangsgrößen für ein rückgekoppeltes neuronales Netzwerk (RNN) des T rajektorienerkennungsmoduls 38, wobei die Ausgangsgröße des rückgekoppelten neuronalen Netzwerks als Eingangsgröße für das nächste rückgekoppelte neuronale Netzwerk dient oder, im Fall des letzten rückgekoppelten neuronalen Netzwerks die Ausgangsgröße des T rajektorienerkennungsmoduls 38 darstellt.
Die Ausgangsgröße des Trajektorienerkennungsmoduls 38 wird an das T rajektorienermittlungsmodul 40 übergeben, welches dann, beispielsweise mittels wenigstens einem weiteren rückgekoppelten neuronalen Netzwerk, die voraussichtlichen T rajektorien der weiteren Verkehrsteilnehmer 18, 20, 21 ermittelt.

Claims

Patentansprüche
1. Verfahren zum Steuern eines Kraftfahrzeugs (10), das auf einer Straße (12) in einer momentanen Fahrspur (14) fährt, wobei das Kraftfahrzeug (10) wenigstens einen Sensor (28) aufweist, der dazu ausgebildet ist, zumindest einen vor dem Kraftfahrzeug (10) liegenden Bereich der momentanen Fahrspur (14) zu erfassen, und wobei sich auf der momentanen Fahrspur (14) und/oder auf wenigstens einer weiteren Fahrspur (16) wenigstens ein weiterer Verkehrsteilnehmer (18, 20, 21) befindet, mit den folgenden Schritten:
Erfassen von Umgebungsdaten mittels des wenigstens einen Sensors (28), wobei die Umgebungsdaten Informationen über Eigenschaften der momentanen Fahrspur (14), über Eigenschaften der wenigstens einen weiteren Fahrspur (16) und/oder über den wenigstens einen weiteren Verkehrsteilnehmer (18, 20, 21) umfassen;
Ermitteln wenigstens eines Nutzwertfunktionais basierend auf den Umgebungsdaten, wobei das Nutzwertfunktional zu einem vordefinierten Zeitpunkt verschiedenen räumlichen Bereichen der momentanen Fahrspur (14) und/oder der wenigstens einen weiteren Fahrspur (16) jeweils einen Nutzwert für den wenigstens einen weiteren Verkehrsteilnehmer (18, 20, 21) zuordnet; Ermitteln einer zweidimensionalen Repräsentation des wenigstens einen Nutzwertfunktionais; und
Ermitteln wenigstens einer voraussichtlichen Trajektorie des wenigstens einen weiteren Verkehrsteilnehmers (18, 20, 21) basierend auf der zweidimensionalen Repräsentation des Nutzwertfunktionais, indem eine Mustererkennung auf die zweidimensionale Repräsentation angewendet wird.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass zu mehreren vordefinierten Zeitpunkten, insbesondere in der Vergangenheit, jeweils eine zweidimensionale Repräsentation des entsprechenden Nutzwertfunktionais ermittelt wird, und wobei die wenigstens eine voraussichtliche Trajektorie des wenigstens einen weiteren Verkehrsteilnehmers (18, 20, 21) basierend auf den zweidimensionalen Repräsentationen ermittelt wird, indem eine Mustererkennung auf die zweidimensionalen Repräsentationen angewendet wird.
3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass basierend auf den zweidimensionalen Repräsentationen ein dreidimensionaler Tensor ermittelt wird, und wobei die wenigstens eine voraussichtliche Trajektorie des wenigstens einen weiteren Verkehrsteilnehmers (18, 20, 21) basierend auf dem Tensor ermittelt wird, indem eine Mustererkennung auf den Tensor angewendet wird, wobei insbesondere die zweidimensionalen Repräsentationen entlang der Zeitdimension aufeinandergestapelt werden, um den Tensor zu ermitteln.
4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die verschiedenen räumlichen Bereiche als Gitterpunkte repräsentiert werden, und/oder dass die zweidimensionale Repräsentation ein zweidimensionales Bild ist, insbesondere wobei eine Farbe der einzelnen Bildpunkte basierend auf dem Wert des entsprechenden Nutzwerts ermittelt wird.
5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Mustererkennung mittels eines künstlichen neuronalen Netzwerks (42) durchgeführt wird, insbesondere mittels eines Convolutional Neural Network, wobei insbesondere das künstliche neuronale Netzwerk (42) zweidimensionale und/oder dreidimensionale Filterkernel aufweist und/oder dass das künstliche neuronale Netzwerk zweidimensionale oder dreidimensionale Poolingschichten aufweist.
6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass weitere Verkehrsteilnehmer (20, 21), die sich räumlich innerhalb eines vordefinierten Abstands voneinander befinden, als eine Gruppe von weiteren Verkehrsteilnehmern (20, 21) angesehen werden, wobei für die Gruppe von weiteren Verkehrsteilnehmern (20, 21) ein gemeinsames
Nutzwertfunktional ermittelt wird.
7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass, insbesondere für jeden weiteren Verkehrsteilnehmer (18, 20, 21) der Gruppe, eine bisherige Trajektorie des wenigstens einen weiteren Verkehrsteilnehmers (18, 20, 21) ermittelt wird, wobei die wenigstens eine voraussichtliche Trajektorie des wenigstens einen weiteren Verkehrsteilnehmers (18, 20, 21) basierend auf der ermittelten bisherigen Trajektorie ermittelt wird, insbesondere wobei das Ergebnis der Mustererkennung und die bisherige T rajektorie einem künstlichen neuronalen Netz zugeführt werden, das die wenigstens eine voraussichtliche T rajektorie ermittelt.
8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Informationen über die Eigenschaften der momentanen Fahrspur (14) und/oder über die Eigenschaften der wenigstens einen weiteren Fahrspur (16) wenigstens eines der folgenden Elemente umfassen: Ort und/oder Verlauf von Fahrbahnmarkierungen, Art der Fahrbahnmarkierungen, Ort und/oder Art von Verkehrszeichen, Ort und/oder Verlauf von Leitplanken, Ort und/oder Schaltungszustand wenigstens einer Ampel, Ort von wenigstens einem geparkten Fahrzeug.
9. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Informationen über den wenigstens einen weiteren Verkehrsteilnehmer (18, 20, 21) einen Ort des wenigstens einen weiteren Verkehrsteilnehmers (18, 20, 21), eine Geschwindigkeit des wenigstens einen weiteren Verkehrsteilnehmers (18, 20, 21) und/oder eine Beschleunigung des wenigstens einen weiteren Verkehrsteilnehmers (18, 20, 21) umfassen.
10. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die wenigstens eine voraussichtliche T rajektorie an ein Fahrmanöverplanungsmodul des Kraftfahrzeugs (10) übergeben wird.
11. Steuergerät für ein System (26) zum Steuern eines Kraftfahrzeugs (10) oder für ein Kraftfahrzeug (10), wobei das Steuergerät (30) dazu ausgebildet ist, ein Verfahren nach einem der vorhergehenden Ansprüche durchzuführen.
12. Computerprogramm mit Programmcodemitteln, um die Schritte eines Verfahrens nach einem der Ansprüche 1 bis 10 durchzuführen, wenn das Computerprogramm auf einem Computer oder einer entsprechenden Recheneinheit ausgeführt wird, insbesondere einer Recheneinheit (34) eines Steuergeräts (30) nach Anspruch 12.
EP21735216.0A 2020-07-06 2021-06-17 Verfahren sowie steuergerät zum steuern eines kraftfahrzeugs Withdrawn EP4176376A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102020208421.1A DE102020208421A1 (de) 2020-07-06 2020-07-06 Verfahren sowie Steuergerät zum Steuern eines Kraftfahrzeugs
PCT/EP2021/066487 WO2022008200A1 (de) 2020-07-06 2021-06-17 Verfahren sowie steuergerät zum steuern eines kraftfahrzeugs

Publications (1)

Publication Number Publication Date
EP4176376A1 true EP4176376A1 (de) 2023-05-10

Family

ID=76641666

Family Applications (1)

Application Number Title Priority Date Filing Date
EP21735216.0A Withdrawn EP4176376A1 (de) 2020-07-06 2021-06-17 Verfahren sowie steuergerät zum steuern eines kraftfahrzeugs

Country Status (5)

Country Link
US (1) US20230257002A1 (de)
EP (1) EP4176376A1 (de)
CN (1) CN115812052A (de)
DE (1) DE102020208421A1 (de)
WO (1) WO2022008200A1 (de)

Also Published As

Publication number Publication date
CN115812052A (zh) 2023-03-17
US20230257002A1 (en) 2023-08-17
WO2022008200A1 (de) 2022-01-13
DE102020208421A1 (de) 2022-01-13

Similar Documents

Publication Publication Date Title
EP3144920B1 (de) Bestimmen einer soll-trajektorie für ein fahrzeug
EP3765927B1 (de) Verfahren zum erzeugen eines trainingsdatensatzes zum trainieren eines künstlichen-intelligenz-moduls für eine steuervorrichtung eines fahrzeugs
DE102019110217B4 (de) Verfahren zum automatisierten Steuern eines Kraftfahrzeugs
DE102019104974A1 (de) Verfahren sowie System zum Bestimmen eines Fahrmanövers
DE102018212318B4 (de) Adaptive geschwindigkeitsregelung
DE102019118366A1 (de) Verfahren sowie Steuergerät für ein System zum Steuern eines Kraftfahrzeugs
DE102013225057A1 (de) Verfahren zum steuern eines fahrzeugs, vorrichtung zum erzeugen von steuersignalen für ein fahrzeug und fahrzeug
DE102018009927A1 (de) Steuerungssystem und Steuerungsverfahren für einen hybriden Ansatz zum Ermitteln einer möglichen Trajektorie für ein Kraftfahrzeug
EP3627386A1 (de) Verfahren und vorrichtung zum bereitstellen eines umfeldabbildes eines umfeldes einer mobilen einrichtung und kraftfahrzeug mit einer solchen vorrichtung
DE102020103030A1 (de) Adaptives sensorsystem für fahrzeuge und verfahren zum betreiben desselben
DE102019107414A1 (de) Verfahren sowie Steuergerät für ein System zum Steuern eines Kraftfahrzeugs
WO2020127010A1 (de) Verfahren sowie system zum steuern eines kraftfahrzeugs
DE102017223206A1 (de) Niederdimensionale Ermittlung von abgegrenzten Bereichen und Bewegungspfaden
DE102017127600A1 (de) Verfahren zum automatischen Parken für ein Kraftfahrzeug mit einem Fahrunterstützungssystem
DE102019122250A1 (de) Verfahren sowie Steuergerät für ein System zum Steuern eines Kraftfahrzeugs
DE102021109395A1 (de) Verfahren, systeme und vorrichtungen für benutzerverständliche erklärbare lernmodelle
DE102019129879A1 (de) Verfahren sowie Steuergerät zum Steuern eines Kraftfahrzeugs
DE102016203522A1 (de) Verfahren und Vorrichtung zum Vorhersagen von Trajektorien eines Kraftfahrzeugs
WO2020069812A1 (de) Verfahren zum zumindest teilautomatisierten führen eines kraftfahrzeugs auf einer fahrbahn
DE102016220450A1 (de) Vorrichtung, Fortbewegungsmittel und Verfahren zur Abschätzung einer Kollisionswahrscheinlichkeit zwischen einem Fortbewegungsmittel und einem Umgebungsobjekt
WO2019120709A1 (de) Verfahren und steuereinheit zur steuerung einer funktion eines zumindest teilweise automatisiert fahrenden fahrzeugs
DE102020109662A1 (de) Computerimplementiertes Verfahren zur Trajektorienplanung für ein Fahrzeug
DE102019204187A1 (de) Klassifizierung und temporale Erkennung taktischer Fahrmanöver von Verkehrsteilnehmern
EP4176376A1 (de) Verfahren sowie steuergerät zum steuern eines kraftfahrzeugs
DE102020201016B4 (de) Verfahren und Vorrichtung zum Bereitstellen mindestens einer Trajektorie für ein automatisiert gefahrenes Fahrzeug

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: UNKNOWN

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20221221

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20230825