EP3850536A1 - Analysis of dynamic spatial scenarios - Google Patents

Analysis of dynamic spatial scenarios

Info

Publication number
EP3850536A1
EP3850536A1 EP19773727.3A EP19773727A EP3850536A1 EP 3850536 A1 EP3850536 A1 EP 3850536A1 EP 19773727 A EP19773727 A EP 19773727A EP 3850536 A1 EP3850536 A1 EP 3850536A1
Authority
EP
European Patent Office
Prior art keywords
ego
vehicle
sensor data
representation
scenario
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
EP19773727.3A
Other languages
German (de)
French (fr)
Inventor
Halil BEGLEROVIC
Jonas RÜBSAM
Steffen METZNER
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
AVL List GmbH
Original Assignee
AVL List GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by AVL List GmbH filed Critical AVL List GmbH
Publication of EP3850536A1 publication Critical patent/EP3850536A1/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/20Conjoint control of vehicle sub-units of different type or different function including control of steering systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/203Drawing of straight lines or curves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/422Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation for representing the structure of the pattern or shape of an object therefor
    • G06V10/426Graphical representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Definitions

  • the present invention relates to a method and a system for data preparation of dynamic spatial scenarios for processing by an artificial neural network, a computer-aided method and a system for training an artificial neural network as well as a computer-aided method and a system. system for analyzing sensor data.
  • ADAS advanced driver assistance systems
  • Support ranges from the mere display of possibly relevant information (e.g. issuing a warning by a lane change assistant) to semi-autonomous interventions (e.g. regulation of the torque applied to the wheel axles by an anti-lock braking system) to fully autonomous interventions in the control of the vehicle (e.g. adaptive cruise control using adaptive cruise control (ACC).
  • ADAS advanced driver assistance systems
  • driver assistance systems The basis for such driver assistance systems is usually formed by sensor data, for example provided signals from ultrasound sensors, radar sensors or cameras, which can be used to determine the current driving situation and in response to this the function of the respective driver assistance system can be carried out.
  • sensor data for example provided signals from ultrasound sensors, radar sensors or cameras, which can be used to determine the current driving situation and in response to this the function of the respective driver assistance system can be carried out.
  • the current driving situation must be able to be classified very reliably on the basis of the sensor data.
  • a traffic scenario in which a neighboring vehicle in front of the ego vehicle and equipped with the driver assistance system can enter the same lane. shear, can be recognized by the fact that a sensor-detected transverse distance decreases perpendicular to the direction of travel to the neighboring vehicle and finally, at least essentially, assumes the value 0 when the neighboring vehicle is located directly in front of the ego vehicle.
  • the programming of algorithms that are suitable for (reliably) recognizing such driving situations or scenarios is generally extremely complex and, in particular, possibly even impossible in the case of a large number of driving situations to be taken into account. Therefore, machine learning is increasingly being used to automatically find characteristics in sensor data that indicate a driving situation.
  • the sensor data used is usually, e.g. Manually, classified sensor data with respect to different driving situations (English labeled sensor data), based on which, for example, an artificial neural network can extract the relevant criteria for the respective driving situation.
  • the classified sensor data must usually be in a specified form, i.e. be prepared accordingly so that it can be meaningfully processed by the artificial neural network.
  • grid maps show the corresponding driving situations from a bird's eye view.
  • the dynamics of an underlying driving situation are reproduced by, for example, all the positions of the respective positions taken over time Traffic participants are shown in the corresponding grid map.
  • Such grid cards are for example in Grüner et. al. , “Spatiotemporal Representation of Driving Scenarios and Classification using Neural Networks”, 2017 IEEE Intelligent Vehicle Symposium, pp. 1782-1788.
  • This object is achieved by a method and a system for data processing, a method and a system for training an artificial neural network and a method and a system for analyzing sensor data in accordance with the independent claims.
  • a first aspect of the invention relates to a method for data processing of dynamic spatial scenarios, in particular traffic scenarios, for processing by an artificial neural network.
  • a representation of a temporal course of an angle sector, which is covered by another object, in particular another vehicle, from the perspective of an ego object, in particular an ego vehicle, is generated.
  • the course over time is determined from sensor data, the sensor data being suitable for characterizing a dynamic spatial scenario in relation to the ego object and at least one other object.
  • a spatial scenario in the sense of the invention is in particular formed from a chronological sequence of spatial, in particular static, scenes.
  • the spatial scenes give, for example, the spatial arrangement of the at least one other object relative to the ego object, e.g. the constellations of road users.
  • a spatial scenario can in particular contain a driving situation in which a driver assistance system at least partially controls the vehicle called the ego vehicle and equipped with the driver assistance system, e.g. carries out at least one vehicle function of the ego vehicle autonomously.
  • Dynamic in the sense of the invention means, in particular, temporal sequence or temporal course. Traffic scenarios are dynamic, for example, because the individual traffic turn participants move relative to each other over time, ie change their positions relative to each other.
  • a representation in the sense of the invention is in particular a graphic representation, e.g. a graph or chart.
  • the representation preferably contains a, in particular two- or three-dimensional, image.
  • the representation can also contain a mathematical representation, e.g. an assignment rule or a function.
  • the representation can, for example, show the course over time of an angle sector, which is covered by the other object from the perspective of the ego object, in a map-like illustration.
  • Sensor data in the sense of the invention are, in particular, data generated by real or simulated sensors, in particular environmental sensors, in particular in the form of signals, i.e. real or simulated sensor data.
  • the sensors are preferably set up to record an environment of the ego vehicle and to generate corresponding sensor data so that the sensor data characterize the environment of the ego vehicle.
  • the sensor data are preferably sensor fusion data which are obtained from a combination of signals provided by the sensors and, if appropriate, have already been prepared, at least to a certain extent.
  • An ego object in the sense of the invention is in particular the object from the perspective of which the dynamic spatial scenario is viewed.
  • An ego object can, for example, be a (ego) vehicle, from the point of view of which a traffic scenario is recorded and possibly analyzed and / or evaluated, for example in order to be able to adequately control a driver assistance system or to be able to react to the recorded traffic scenario.
  • sensor data that are processed, for example, for further processing are preferably generated by environmental sensors of the ego vehicle, the environmental sensors, such as ultrasound sensors, radar sensors, cameras and / or the like, being set up to detect the environment of the ego vehicle.
  • An angular sector in the sense of the invention is in particular that area which is taken up by another object from the perspective of the ego object. From the perspective of an ego vehicle, the angle sector corresponds, for example, to the area that is covered by another vehicle.
  • the The angle sector is defined by the cross-sectional area of the object or its contour.
  • the angle sector can be defined by a maximum extension of the cross-sectional area or contour along a predetermined direction, in particular in the horizontal direction.
  • the invention is based in particular on the approach of encoding information relating to a dynamic spatial scenario, for example a traffic situation, determined from sensor data in a representation.
  • the representation can therefore also be understood as an abstraction of the scenario and serves in particular to summarize different types of information, for example positions, translations, number of objects and / or the like.
  • the representation is preferably generated on the basis of the temporal development of an angular sector in which the field of vision of an ego object is covered by another object. With the help of the angle sector, in particular constellations of objects in spatial scenes can be described relative to each other.
  • the representation is preferably a graphic, in particular two- or three-dimensional, image, which - in an abstract manner - shows both the position and the movement of the objects relative to one another.
  • the movement of an object in the illustration can be represented by a shape, in particular a geometric shape.
  • a characteristic form can preferably be found on the basis of its analysis of such an image.
  • the shape is particularly characteristic of the dynamic spatial scenario in relation to the ego object and at least one other object.
  • the characteristic shape is a pattern that e.g. can be found by means of an artificial neural network by analyzing such a representation, possibly also several such representations that were generated on the basis of the sensor data.
  • the corresponding dynamic spatial scenario can be determined on the basis of an evaluation of a representation.
  • the representation of a dynamic spatial scenario based on the temporal development of the angle sector has the advantage that its information content does not depend, or at least only slightly, on variations in the scenario. Different variants of the scenario, for example a particularly fast or particularly slow driving maneuver, produce different images in the display, but with essentially the same or at least a similar shape.
  • plotting the angular sector which is covered by another vehicle with respect to the field of vision of a ego vehicle and thus represents the position of the other vehicle relative to the ego vehicle, generates a pattern over time, the shape of which is for that of driving maneuvers performed in another vehicle is characteristic. If the other vehicle moves away from the ego vehicle, the covered angular sector becomes somewhat smaller, while it increases correspondingly when approached. If the other vehicle is moving e.g. with respect to the direction of travel to the side of the ego vehicle, the covered angle sector shifts.
  • the resulting pattern which, for example, has a characteristic curvature, can then be reliably assigned to a driving maneuver, even if the image generally varies, for example aggressively or defensively, depending on the execution of the driving maneuver, e.g. is compressed or stretched.
  • the representation of the temporal development of the angular sector thus enables various types of information to be summarized in a compact manner. Since a time lapse is shown here, overlaps, e.g. of graphic elements, and an associated loss of information avoided or at least reduced. At the same time, for example, storage space can be saved and the evaluation of sensor data can be accelerated. At the same time, the display enables reliable identification of dynamic spatial scenarios.
  • the representation of the temporal development of the angle sector has the advantage, for example, that the same information can be represented by a much smaller amount of data.
  • individual pixels that are not occupied by another vehicle ie “empty” pixels
  • do not contribute to the information content that can be used by an artificial neural network for example.
  • the amount of data required to create an artificial neural network train can be reduced by a factor of 27 by using the representation of the temporal development of the angular sector.
  • the present invention makes it possible to further improve the processing of sensor data.
  • the processing of sensor data for processing by an artificial neural network can be improved, for example by preventing or at least reducing information loss during processing.
  • the representation is output to an artificial neural network or made available for processing by the artificial neural network.
  • the representation can be stored as a data packet, in particular as a digital image, on a storage medium or transmitted directly to the artificial neural network via an interface.
  • large amounts of sensor data can also be used to train the artificial neural network, in particular to determine patterns in the representation that are characteristic of a given scenario, such as the shape of a figure in the representation.
  • a second aspect of the invention relates to a computer-based method for training an artificial neural network on the basis of sensor data which are suitable for characterizing a known dynamic spatial scenario in relation to an ego object and at least one other object.
  • a representation of a time profile of an angle sector, which is covered from the perspective of an ego object, in particular an ego vehicle, by another object, in particular another vehicle, is generated on the basis of the sensor data.
  • the generated representation together with information about the spatial scenario is fed to the artificial neural network.
  • the artificial neural network can be trained particularly quickly and reliably to recognize patterns that are characteristic of different scenarios.
  • the information about the spatial scenario preferably contains an indication of a classification of the scenario, with the aid of which the scenario can be identified, preferably uniquely.
  • the information can already be contained in the sensor data, for example if it is simulated sensor data that was generated by a simulator when simulating a specific scenario.
  • the information can also be supplied to the artificial neural network as a separate data stream, for example if the sensor data have already been analyzed and classified in relation to at least one scenario. This classification can in particular have been carried out manually, for example by analyzing an image stream corresponding to the sensor data.
  • a third aspect of the invention relates to a computer-aided method for analyzing sensor data which are suitable for characterizing a dynamic spatial scenario in relation to an ego object and at least one other object.
  • a representation of a time profile of an angle sector, which is covered by another object, in particular another vehicle, from the perspective of an ego object, in particular an ego vehicle, is generated on the basis of the sensor data.
  • the generated representation is compared with at least one predefined template of a known dynamic spatial scenario. This means that a known scenario can be detected particularly quickly and reliably on the basis of a sensor data stream, such as is provided by environmental sensors of a vehicle.
  • the predefined template is preferably a generic representation of the temporal development of the angle sector, which e.g. contains all essential characteristic patterns of a scenario.
  • the predefined template can be a representation that contains at least one figure, the shape of which is characteristic of a driving maneuver of a vehicle that is carried out in the context of a traffic scenario.
  • the predefined template is preferably determined on the basis of a number of representations which are characteristic of the known dynamic spatial scenario.
  • the multiple representations that are characteristic of the known scenario can be averaged.
  • These representations can be generated beforehand, for example, from sensor data that have been classified in relation to the scenario have been. As a result, a high degree of reliability can be achieved when comparing the generated representation with the predefined template.
  • the dynamic spatial scenario is classified on the basis of the comparison, for example by assigning the determined representation to the at least one predefined template. This enables the scenario to be reliably identified and, if necessary, reactions of a driver assistance system to be triggered.
  • a measure of similarity is preferably determined, on the basis of which the scenario can be classified, for example, and the generated representation can be assigned to a scenario. It is e.g. it is conceivable to assign the generated representation to the scenario on the predefined templates of which the generated representation can best be represented by means of an elastic matching or nonlinear template matching method, i.e. for which a similarity measure obtained by the method becomes maximum. This enables the scenario to be identified particularly reliably.
  • a template is defined for a new dynamic spatial scenario if the generated representation cannot be assigned to the at least one predefined template of a known dynamic spatial scenario.
  • a template can be defined for a new dynamic spatial scenario if a similarity measure determined when comparing the generated representation does not reach a predetermined threshold value.
  • a catalog of predefined templates of known dynamic spatial scenarios can be generated in a simple manner, in particular in real time.
  • the generated representation of the further gives a, in particular transverse, distance of the ego object to the other object and / or a, in particular transverse, speed of the ego object.
  • the distance and / or the speed is also or are determined from sensor data.
  • the corresponding distance information or speed information is preferably encoded in the representation in such a way that it can be read independently of at least the spatial arrangement of the other object relative to the ego object.
  • the speed of the ego object can in particular be a transverse speed, i.e. a velocity component essentially perpendicular to the dominant (longitudinal) direction of movement, e.g. a direction of travel, the ego object.
  • the speed of the ego object reproduced in the representation produced is preferably formed exclusively from the transverse speed.
  • the transverse speed of the ego vehicle is zero, while when changing lanes it increases to a maximum value and then drops back to zero.
  • the distance of the ego object to the other object can in particular have a transversal distance, ie a distance component essentially perpendicular to the dominant (longitudinal) direction of movement, for example a direction of travel, of the ego object.
  • the distance of the ego object to the other object reproduced in the representation produced is preferably formed exclusively from the transverse distance. If the ego vehicle is overtaken by another vehicle in an adjacent lane, for example, the absolute distance between the ego vehicle and the other vehicle changes. However, the transverse distance remains constant as long as neither the ego vehicle nor any other vehicle leaves its respective lane. The change in the transverse distance therefore allows (further) conclusions to be drawn about the maneuver carried out, for example in the context of a scenario.
  • the time profile of an angle sector is represented by a line, the width of which indicates a value of the respective angle sector.
  • a distance of the ego object to the other object and / or a speed of the ego object is or become by a stored value or a coloring at the respective position of the line, which corresponds to the time of the presence of the distance and / or Corresponds to the speed shown.
  • the stored value or the coloring of the line can alternatively or additionally be determined by a, in particular generic, function, into which, for example, input variables the, in particular transverse, distance between the ego object and the other object and / or the, in particular transverse, speed of the ego object.
  • the function can be used, for example, to add or multiply the distance and the speed, possibly taking a weighting into account.
  • the speed can be weighted with the distance or the distance with the speed.
  • the function is preferably used to manipulate the perception of an artificial neural network.
  • the function can be selected so that the resulting representations influence the pattern recognized by the artificial neural network.
  • different dynamic spatial scenarios can be distinguished particularly reliably.
  • parameters other than the distance between the ego object and the other object and / or the speed of the ego object can also be considered Input variables of the function can be selected.
  • the parameters can be selected, for example, depending on the, in particular known, dynamic spatial scenario. Parameters are preferably selected as input variables that at least partially characterize the dynamic spatial scenario.
  • a fourth aspect of the invention relates to a system for data processing of dynamic spatial scenarios, in particular traffic scenarios, for processing by an artificial neural network.
  • the system has a determination module which is set up to use sensor data to plot a time profile of an angle sector, which is covered by another object, in particular another vehicle, from the perspective of an ego object, in particular an ego vehicle to investigate.
  • the sensor data are suitable for characterizing a dynamic spatial scenario in relation to the ego object and at least one other object.
  • the system also has a generation module which is set up to generate a representation of the determined time profile.
  • a sixth aspect of the invention relates to a system for analyzing sensor data which are suitable for characterizing a dynamic spatial scenario in relation to an ego object and at least one other object.
  • the system has a generation module which is set up to display a time profile of an angular sector which is covered by another object, in particular another vehicle, from the perspective of an ego object, in particular an ego vehicle. to generate based on the sensor data.
  • the system also has a comparison module which is set up to display the generated data. Compare position with at least one predefined template of a known dynamic spatial scenario.
  • FIG. 1 each shows a preferred exemplary embodiment of a system according to the invention for data processing and of a system according to the invention for training an artificial neural network;
  • FIG. 2 shows a preferred exemplary embodiment of a system according to the invention for analyzing sensor data
  • FIG. 5 shows a second example to explain the relationship between a representation according to the invention and a corresponding dynamic spatial scenario
  • FIG. 6 each shows a preferred exemplary embodiment of a method according to the invention for data processing and of a method according to the invention for training an artificial neural network; and 7 shows a preferred exemplary embodiment of a method for data evaluation according to the invention.
  • the system 100 for data processing has a determination module 2 and a generation module 3 , wherein the determination module 2 is set up to determine a temporal profile of an angle sector, which is covered by another object from the perspective of an ego object, from sensor data S, and the generation module 3 is set up to generate a representation of the determined course over time.
  • the system 200 for training the artificial neural network 1 has the generation module 3 and an interface 4, the interface 4 being set up to supply the generated representation together with information about a dynamic spatial scenario to the artificial neural network 1.
  • the sensor data S are generated, for example, by environmental sensors of a ego vehicle when recording a traffic scenario and characterize, for example, the number of neighboring vehicles, the relative arrangement, in particular the relative distances, of the other vehicles from the ego vehicle, the speed of the ego vehicle, and / or similar. From these sensor data S, the determination module 2 can preferably determine how wide at least one angle sector hidden by the other vehicles is in the field of vision of the ego vehicle and in what position this angle sector, for example relative to the direction of travel of the ego vehicle, is arranged.
  • the resulting sensor data S can also be used to determine the time profile of the angle sector, in particular a change in its width and / or its position from the perspective of the ego vehicle.
  • the time course can be used by the generation module 3 to generate a graphical representation that depicts the traffic scenario in an abstract manner.
  • the generation module 3 is set up to encode the information contained in the sensor data S regarding the traffic scenario in the representation, in particular in compressed form.
  • the sensor data S are preferably sensor data classified in relation to dynamic spatial scenarios, ie the sensor data S are assigned, for example, to one of several classes of traffic scenarios, such as overtaking maneuvers or lane change maneuvers. This classification can be done manually, for example, by viewing an image data stream.
  • the representation generated on the basis of the determined time profile of the angle sector can therefore be transmitted from the interface 4 to the artificial neural network 1 with information about the dynamic spatial scenario.
  • the artificial neural network 1 is preferably set up to recognize at least one pattern in each case in all representations which are assigned to the same traffic scenario class. On the basis of such a recognized pattern, a template can be defined that characterizes a known traffic scenario. The templates defined in this way can be stored in a database 5 for further use, for example for evaluating sensor data generated in the normal operation of a vehicle.
  • FIG. 2 shows a preferred embodiment of a system 300 for analyzing sensor data S which are suitable for characterizing a dynamic spatial scenario in relation to an ego object and at least one other object.
  • the system 300 has a generation module 3, which is set up to generate, based on the sensor data S, a representation of a temporal profile of an angle sector, which is covered by another object from the perspective of the ego object.
  • the system 300 also has a comparison module 6, which is set up to compare the generated representation with at least one predefined template of a known dynamic spatial scenario.
  • the comparison module 6 preferably has access to a database 5, in which at least one predefined template is stored.
  • the result of the comparison is output by the comparison module 6 in a preferred manner and can be used, for example, to control a driver assistance system with which an ego vehicle is equipped. If, for example, at least a predetermined degree of agreement is ascertained between the generated representation and the at least one predefined template, for example by analyzing a same generated measure of similarity, it can be concluded that the known scenario is present, and the comparison module 6 can output approximately one scenario class as the output signal. Alternatively or additionally, the start and / or the end of an identified driving maneuver can also be output, in particular signaled.
  • FIG. 3 shows an example for the determination of an angle sector F in a dynamic spatial scenario 10, in which an ego object 11 moves along a direction of movement, here along the x-axis of a coordinate system, and from other objects 12 is surrounded.
  • the spatial scenario 10 is a traffic scenario with an ego vehicle 1 1a, which is moving in the direction of travel in a middle lane and is surrounded by other vehicles 12a, 12b in adjacent lanes.
  • FIG. 3A shows the traffic scenario from a bird's eye view, a temporal sequence of spatial scenes being summarized in the illustration shown.
  • the other vehicles 12a, 12b are in different positions relative to the ego vehicle 1 1a, which are indicated by different fillings of the rectangles representing the vehicles 12a, 12b.
  • a denser filling corresponds to a position further back in time.
  • a first vehicle 12a performs a lane change from an outer lane to the lane used by the ego vehicle 1 1a and in doing so, it turns in front of the ego vehicle 1 1a.
  • a second vehicle 12b which is initially at approximately the same level as the ego vehicle 1 1 a with respect to the direction of movement, falls backwards over time. Due to the fact that the change in position of the second vehicle 12b is relatively small, the positions assumed by the second vehicle 12b at different times overlap in this illustration.
  • an angle sector can be determined for each of the two vehicles 12a, 12b, which indicates the area in the field of vision of the ego vehicle 11a that is covered by the respective vehicle 12a, 12b. This is shown in FIG. 3B as an example for the first vehicle 12a.
  • the contour 13 of the first vehicle 12a that results in relation to the perspective of the ego vehicle 1 1 a is indicated as a solid line and spans the angle sector F.
  • a position cp of the angle sector F, and thus also of the first vehicle 12a View of the ego vehicle 1 1 a can be specified relative to a predetermined direction, for example the direction of movement. If the position of the vehicle 12a shifts relative to the ego vehicle 11a, both the width of the angle sector F and its position cp can change.
  • FIG. 3C The bar diagram depicted there, in which the inverse distance d, indicated as a black arrow in FIG. 3A, between the ego vehicle 1 1a and the other vehicles 12a, 12b is plotted against the position cp of the angle sector F, forms an abstract representation of the one shown in FIG. 3A traffic scenarios shown.
  • the three bars on the right correspond to the angular range F covered by the first vehicle 12a, while the three bars on the left correspond to the angular range F covered by the second vehicle 12b.
  • the different times are indicated by the corresponding filling of the bars.
  • the angular range F covered by the first vehicle 12a moves in the direction of a 0 ° position when it is reeved in front of the ego vehicle 11a, the 0 ° position of the angle sector F corresponding to a position in front of the ego vehicle 11a .
  • the width of the angular range F covered by the first vehicle 12a also increases.
  • the distance d between the first vehicle 12a and the ego vehicle 11a is also encoded in the height of the bars, which increases with the passage of time.
  • the angular range F covered by the second vehicle 12b moves away from the 0 ° position to the extent that the second vehicle 12b falls behind the ego vehicle 1 1a. Since the distance between the second vehicle 12b and the ego vehicle 1 1a increases, the height of the bars and their width also decrease.
  • FIG. 4 shows a first example to explain the relationship between a preferred exemplary embodiment of a representation 20 according to the invention and a corresponding dynamic spatial scenario 10.
  • FIG. 4A shows the representation 20 of time profiles of angle sectors FQ, F ⁇ FO, that of others Objects from the perspective of an ego object, such as an ego vehicle 1 1a, are covered become.
  • the time t is plotted against the position cp of the angle sectors Oa, Ob, Oc, the 0 ° position corresponding to a position in front of the ego object.
  • the temporal courses of the angle sectors Oa, Ob, Oc are represented as lines, the width of which corresponds to the distance of the respective object from the ego object.
  • a first object for example a first vehicle 12a
  • a second object for example a second vehicle 12b
  • the second object changes its position and moves between the ego object and the first object. From this point in time, the time profile of the angle sector Ob, which is covered by the second object, overlaps the profile of the angle sector Oa, which is covered by the first object.
  • another angle sector Oc is covered by a third object, such as a third vehicle 12c.
  • the position cp of the angle sector Oc covered by the third object subsequently shifts in the direction of the 0 ° position.
  • This temporal course can be caused, for example, by a movement of the third object parallel to the direction of movement of the ego object, the distance between the third object and the ego object increasing.
  • Such temporal profiles of the angle sectors Oa, Ob, Oc can, for example, be characteristic of the spatial dynamic scenario 10 shown in FIG. 4B, here a traffic scenario.
  • the development over time is indicated in FIG. 4B by trajectories of the vehicles on the carriageway marked with dots.
  • the second vehicle 12b reevers between the ego vehicle 11a and the first vehicle 12a in the middle lane.
  • the ego vehicle 1 1a the first vehicle 12a and the second vehicle 12b continue to move together in the middle lane. Because the second vehicle 12b now obscures the view of the first vehicle 12a from the perspective of the ego vehicle 1 1a, only one line is visible in the corresponding representation 20 in FIG. 4A in the 0 ° position.
  • the representation 20 in FIG. 4A created by the time profiles of the angle sectors has a pattern which is characteristic of the spatial dynamic scenario 10 described. If many such representations are generated on the basis of sensor data that were repeatedly collected when such a scenario was recorded, an artificial neural network can learn this pattern or can be trained to recognize this pattern. During regular operation of a vehicle, the temporal course of angle sectors can then be represented in real time from the sensor data generated and analyzed by the trained artificial neural network, in particular compared with the learned pattern. This preferably determines whether or at what point in time a known traffic scenario is pending.
  • FIG. 4C shows the result of such a comparison, for example between the illustration 20 shown in FIG. 4A and a corresponding template, an output signal a being plotted against time t.
  • This jumps around time t 30
  • Output signal a to the value 6, which signals the presence of the known traffic scenario, in this case the reeving of a second vehicle 12b.
  • the value of the output signal a can also be used to output the classification of the traffic scenario.
  • the comparison of the generated representation with different templates could show the greatest agreement with a template that is assigned to a swinging-out maneuver, and the output signal a could assume a different value accordingly.
  • FIG. 5 shows a second example to explain the relationship between a preferred exemplary embodiment of an illustration 20 according to the invention and a corresponding dynamic spatial scenario 10.
  • FIG. 5A shows a scene from the traffic situation corresponding to the dynamic spatial scenario 10, in this case one by the arrow indicated, ego vehicle 1 1a shears into a lane in which another first vehicle 12a is already driving.
  • a further, second vehicle 12b is traveling in a further lane.
  • the development over time of the dynamic spatial scenario 10 is shown in FIG. 5B by trajectories of the vehicles 11a, 12a, 12b, identified by points.
  • the other two vehicles 12a, 12b continue to drive straight ahead at a somewhat higher speed, so that the ego vehicle 11a slowly falls behind further.
  • 5C shows the temporal profiles of the angle sectors Oa, Ob, which are covered by the first vehicle 12a and the second vehicle 12b from the perspective of the ego vehicle 1 1a, in a representation 20.
  • the time t is plotted against a position f of the angle sectors Oa, Ob.
  • a 0 ° position shown in FIG. 5c corresponds to a position in front of the ego vehicle 1 1 a.
  • the angle sectors Oa, Ob shift in the direction of the 0 ° position, since the first and second vehicles 12a, 12b, as described above, move away from the ego vehicle 11a due to their higher speed.
  • the time profiles of the angle sectors Oa curve, whether in the direction of the 0 ° position.
  • the angle sector Oa covered by the first vehicle 12a subsequently runs along the 0 ° position, since, as shown in FIGS. 5A and 5B, the first vehicle 12a drives the ego vehicle 11a in the same lane.
  • the illustration 20 shows, in addition to the angle sectors Oa, Ob additionally a value which is characteristic of the, in particular transverse, distance between the ego vehicle 1 1 a and the other vehicle 12 a, 12 b and / or for the, in particular transverse, speed of the ego vehicle 11 a at time t.
  • the transverse distance or the transverse speed refer here to a transverse component of the distance or the speed, i.e. of the y components in the illustration shown in FIG. 5B.
  • the value which is characteristic of the distance and / or the speed is shown in the illustration 20 as a coloration of the time profile indicated by the tint of the angular sectors shown.
  • the ego vehicle 11a Since the ego vehicle 11a does not change its (transversal) speed when a lane change is carried out by one of the other vehicles 12a, 12b, in the present case the ego vehicle 11a can be swiveled into the lane used by the first vehicle 12a getting closed.
  • sensor data are generated, for example by sensory detection of the environment of an ego object, and classified, i.e. assigned to different dynamic spatial scenarios.
  • the classification can be carried out manually, for example, by evaluating an image data stream.
  • the sensor data can also be classified automatically, in particular if it is sensor data that was generated by a simulator when simulating various dynamic spatial scenarios.
  • a temporal course of an angle sector, which is covered by another object from the perspective of the ego object can be determined on the basis of the sensor data.
  • the contour, in particular the cross-sectional area, of the other object can be determined and its width in or the proportion of the field of vision of the ego object can be determined.
  • a geometric center of gravity of the contour or the cross-sectional area can be determined and its position in the field of view of the ego object, in particular relative to the direction of movement of the ego object, can be determined.
  • a, in particular graphical, representation is generated from the time profile of the angle sector, which represents the maps over time.
  • the time profile of the angle sector can, for example, form a pattern, for example a figure.
  • the width of the angle sector, in particular its share in the field of view of the ego object, and its position in the field of view of the ego object are preferably determined , in particular relative to the direction of movement of the ego object.
  • a speed of the ego object, in particular a transverse speed, and / or a distance, in particular a transverse distance, of the ego object from the other object is also taken into account in generating the representation.
  • a value can be determined and stored, for example using a function into which parameters such as the speed and / or the distance characterizing the dynamic spatial scenario are included, or the representation can be colored accordingly.
  • the generated representation thus preferably provides information regarding the width and position of the angle sector covered by the other object in the field of view of the ego object and the speed of the ego object and / or the distance to the other object.
  • the generated representation is fed, for example by means of an interface, to an artificial neural network, which is thereby trained in particular to recognize patterns in the generated representation.
  • an artificial neural network which is thereby trained in particular to recognize patterns in the generated representation.
  • information about the dynamic spatial scenarios according to which the sensor data were classified in method step S1 is preferably supplied to the artificial neural network, so that the artificial neural network generates the representation or the recognized pattern can each correlate with one of the dynamic spatial scenarios.
  • FIG. 7 shows a preferred exemplary embodiment of a method V3 according to the invention for analyzing sensor data which are suitable for characterizing a dynamic spatial scenario in relation to an ego object and at least one other object.
  • the sensor data are preferably sensor data generated by environmental sensors of a ego vehicle.
  • a representation of a time profile of an angle sector is generated from the sensor data.
  • the angle sector corresponds to the area in the field of view of the ego object that is covered by the other object.
  • Such a representation can be, for example, an illustration in which the temporal course of the angle sector forms a pattern, for example a figure.
  • the time profile of the angle sector can also be determined in a separate, previous method step (not shown) based on the sensor data.
  • step S5 the generated representation is compared with at least one predefined template of a known dynamic spatial scenario. In this way, it can be determined in which dynamic spatial scenario the ego object is currently located and, if necessary, a driver assistance system can be controlled accordingly.
  • the generated representation can be saved as a further predefined template, for example in a database, if there is no or at least insufficient correspondence of the generated representation with the at least one predefined template that a known dynamic is assigned to spatial scenarios, can be determined.
  • a catalog can be generated with predefined templates, which are suitable for identifying dynamic spatial scenarios, in particular essentially in real time.
  • V2 Method for training an artificial neural network

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Biophysics (AREA)
  • Combustion & Propulsion (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Chemical & Material Sciences (AREA)
  • Biomedical Technology (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Business, Economics & Management (AREA)
  • Game Theory and Decision Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

The invention relates to a method and a system (100) for preparing data on dynamic spatial scenarios (10), to a computer-supported method, to a system (200) for training artificial neural networks (1), to a computer-supported method, and to a system (300) for analyzing sensor data. A display (20) is generated of a time curve of an angular sector covered by another object (12, 12a, 12b, 12c) from the perspective of an ego object (11a). The time curve is ascertained from sensor data, and the sensor data is suitable for characterizing a dynamic spatial scenario (10) with respect to the ego object (11a) and at least one other object (12, 12a, 12b, 12c).

Description

ANALYSE DYNAMISSCHER RÄUMLICHER SZENARIEN  ANALYSIS OF DYNAMIC SPATIAL SCENARIOS
Die vorliegende Erfindung betrifft ein Verfahren und ein System zur Datenaufbereitung von dynamischen räumlichen Szenarien für die Verarbeitung durch ein künstliches neu- ronales Netz, ein Computer-gestütztes Verfahren und ein System zum Trainieren eines künstlichen neuronalen Netzes sowie ein Computer-gestütztes Verfahren und ein Sys- tem zum Analysieren von Sensordaten. The present invention relates to a method and a system for data preparation of dynamic spatial scenarios for processing by an artificial neural network, a computer-aided method and a system for training an artificial neural network as well as a computer-aided method and a system. system for analyzing sensor data.
Moderne Fahrzeuge sind zunehmend mit Fahrerassistenzsystemen (engl. Advanced Driver Assistance Systems, ADAS) ausgestattet, welche den Fahrer in bestimmten Fahr- situationen unterstützen. Die Unterstützung reicht von reinem Anzeigen möglicherweise relevanter Information (z.B. Ausgeben einer Warnung durch einen Spurwechselassis- tent) über teilautonome Eingriffe (z.B. Regulierung des auf die Radachsen aufgebrachten Moments durch ein Antiblockiersystem) bis hin zu vollautonomen Eingriffen in die Steue- rung des Fahrzeugs (z.B. adaptive Geschwindigkeitsregelung durch einen Abstandsre- geltempomat, engl. Adaptive Cruise Control, ACC). Modern vehicles are increasingly equipped with advanced driver assistance systems (ADAS), which support the driver in certain driving situations. Support ranges from the mere display of possibly relevant information (e.g. issuing a warning by a lane change assistant) to semi-autonomous interventions (e.g. regulation of the torque applied to the wheel axles by an anti-lock braking system) to fully autonomous interventions in the control of the vehicle (e.g. adaptive cruise control using adaptive cruise control (ACC).
Die Grundlage für solche Fahrerassistenzsysteme bilden in der Regel Sensordaten, etwa bereitgestellte Signale von Ultraschallsensoren, Radarsensoren oder Kameras, anhand denen die gegenwärtige Fahrsituation bestimmt und in Reaktion darauf die Funktion des jeweiligen Fahrerassistenzsystems ausgeführt werden kann. Insbesondere bei Fahrer- assistenzsystem, die (autonom) in die Steuerung des Fahrzeugs eingreifen, muss an- hand der Sensordaten die gegenwärtige Fahrsituation höchst zuverlässig klassifiziert werden können. The basis for such driver assistance systems is usually formed by sensor data, for example provided signals from ultrasound sensors, radar sensors or cameras, which can be used to determine the current driving situation and in response to this the function of the respective driver assistance system can be carried out. In particular in the case of driver assistance systems which (autonomously) intervene in the control of the vehicle, the current driving situation must be able to be classified very reliably on the basis of the sensor data.
Im Allgemeinen werden dabei bestimmte, einer Fahrsituation zugeordnete Regeln bzw. Kriterien aufgestellt, bei deren Erfüllung auf ein Vorliegen einer bekannten Fahrsituation geschlossen werden kann. Das Erfüllen der Regel bzw. Kriterien wirkt dabei z.B. als Auslöser für eine Aktion des Fahrerassistenzsystems. Beispielsweise kann ein Ver- kehrsszenario, in dem ein benachbartes Fahrzeug vor dem Ego-Fahrzeug genannten, mit dem Fahrerassistenzsystem ausgestatteten Fahrzeug in die gleiche Fahrspur ein- schert, dadurch erkannt werden, dass ein sensorisch erfasster transversaler Abstand senkrecht zur Fahrtrichtung zum benachbarten Fahrzeug abnimmt und schließlich, zu- mindest im Wesentlichen, den Wert 0 annimmt, wenn das benachbarte Fahrzeug sich unmittelbar vor dem Ego-Fahrzeug befindet. In general, certain rules or criteria assigned to a driving situation are set up, and if they are fulfilled, it can be concluded that a known driving situation exists. Fulfilling the rule or criteria acts, for example, as a trigger for an action by the driver assistance system. For example, a traffic scenario in which a neighboring vehicle in front of the ego vehicle and equipped with the driver assistance system can enter the same lane. shear, can be recognized by the fact that a sensor-detected transverse distance decreases perpendicular to the direction of travel to the neighboring vehicle and finally, at least essentially, assumes the value 0 when the neighboring vehicle is located directly in front of the ego vehicle.
Das Programmieren von Algorithmen, die dazu geeignet sind, solche Fahrsituationen bzw. Szenarien (zuverlässig) zu erkennen, ist im Allgemeinen extrem aufwändig und insbesondere bei einer Vielzahl von zu berücksichtigenden Fahrsituationen gegebenen- falls sogar unmöglich. Daher wird verstärkt maschinelles Lernen eingesetzt, um Charak- teristika in Sensordaten, die auf eine Fahrsituation hinweisen, automatisch zu finden. Bei den zugrunde gelegten Sensordaten handelt es sich üblicherweise um, z.B. manuell, bezüglich verschiedener Fahrsituationen klassifizierte Sensordaten (engl labeled sensor data), anhand deren beispielsweise ein künstliches neuronales Netz die relevanten Krite- rien für die jeweilige Fahrsituation extrahieren kann. Dabei müssen die klassifizierten Sensordaten in der Regel in einer vorgegebenen Form vorliegen, d.h. entsprechend auf- bereitet sein, um von dem künstlichen neuronalen Netz sinnvoll verarbeitet werden zu können. The programming of algorithms that are suitable for (reliably) recognizing such driving situations or scenarios is generally extremely complex and, in particular, possibly even impossible in the case of a large number of driving situations to be taken into account. Therefore, machine learning is increasingly being used to automatically find characteristics in sensor data that indicate a driving situation. The sensor data used is usually, e.g. Manually, classified sensor data with respect to different driving situations (English labeled sensor data), based on which, for example, an artificial neural network can extract the relevant criteria for the respective driving situation. The classified sensor data must usually be in a specified form, i.e. be prepared accordingly so that it can be meaningfully processed by the artificial neural network.
Einen Ansatz für eine solche Aufbereitung stellen so genannte Gitterkarten (engl grid maps) dar, welche die entsprechenden Fahrsituationen aus der Vogelperspektive zei- gen. Die Dynamik einer zu Grunde liegenden Fahrsituation wird dabei wiedergegeben, indem beispielsweise alle im Laufe der zeit eingenommen Positionen der jeweiligen Ver- kehrsteilnehmer in der entsprechenden Gitterkarte abgebildet werden. One approach to such preparation is represented by so-called grid maps, which show the corresponding driving situations from a bird's eye view. The dynamics of an underlying driving situation are reproduced by, for example, all the positions of the respective positions taken over time Traffic participants are shown in the corresponding grid map.
Solche Gitterkarten werden beispielsweise in Grüner et. al. ,„Spatiotemporal Representa- tion of Driving Scenarios and Classification using Neural Networks“, 2017 IEEE Intelli- gent Vehicle Symposium, S. 1782-1788, diskutiert. Such grid cards are for example in Grüner et. al. , “Spatiotemporal Representation of Driving Scenarios and Classification using Neural Networks”, 2017 IEEE Intelligent Vehicle Symposium, pp. 1782-1788.
In Cara and de Gelder,„Classification for safety-critical car-cyclist scenarios using ma- chine learning“, 2015 IEEE 18th International Conference on Intelligent Transportation Systems, S. 1955-2000, werden verschiedene Algorithmen zur Klassifizierung von Fahr- zeug-Fahrradfahrer-Szenarien verglichen. Dabei wird bei einem angeleiteten Lernen (supervised learning) eine Trainingsmenge von ausgezeichneten Objekten (labeled ob- jects) verwendet, um sog. Klassifikatoren (classifier) zu trainieren. Nach dem Training sind die Klassifikatoren in der Lage, ein neues unbekanntes Szenario auszuzeichnen, indem sie es einer geschätzten Klasse zuteilen. In Cara and de Gelder, “Classification for safety-critical car-cyclist scenarios using machine learning”, 2015 IEEE 18th International Conference on Intelligent Transportation Systems, pp. 1955-2000, various algorithms for the classification of vehicle cyclists are described Scenarios compared. In the case of supervised learning, a set of excellent objects (labeled objects) is used to train so-called classifiers. After training the classifiers are able to mark a new unknown scenario by assigning it to an estimated class.
Es ist eine Aufgabe der vorliegenden Erfindung, die Verarbeitung von Sensordaten, die geeignet sind, ein dynamisches räumliches Szenario in Bezug auf ein Ego-Objekt und wenigstens ein anderes Objekt zu charakterisieren, weiter zu verbessern. Es ist insbe- sondere eine Aufgabe der Erfindung, die Aufbereitung von solchen Sensordaten für die Verarbeitung durch ein künstliches neuronales Netz zu verbessern, insbesondere einen Informationsverlust bei der Aufbereitung zu verhindern oder zumindest zu reduzieren. It is an object of the present invention to further improve the processing of sensor data which are suitable for characterizing a dynamic spatial scenario in relation to an ego object and at least one other object. It is a particular object of the invention to improve the processing of such sensor data for processing by an artificial neural network, in particular to prevent or at least reduce a loss of information during processing.
Diese Aufgabe wird gelöst durch ein Verfahren und ein System zur Datenaufbereitung, ein Verfahren und ein System zum Trainieren eines künstlichen neuronalen Netzes und ein Verfahren und ein System zum Analysieren von Sensordaten gemäß den unabhän- gigen Ansprüchen. This object is achieved by a method and a system for data processing, a method and a system for training an artificial neural network and a method and a system for analyzing sensor data in accordance with the independent claims.
Ein erster Aspekt der Erfindung betrifft ein Verfahren zur Datenaufbereitung von dynami- schen räumlichen Szenarien, insbesondere Verkehrsszenarien, für die Verarbeitung durch ein künstliches neuronales Netz. Dabei wird eine Darstellung eines zeitlichen Ver- laufs eines Winkelsektors, welcher aus der Perspektive eines Ego-Objekts, insbesondere eines Ego-Fahrzeugs, durch ein anderes Objekt, insbesondere ein anderes Fahrzeug, abgedeckt wird, erzeugt. Der zeitliche Verlauf ist dazu aus Sensordaten ermittelt, wobei die Sensordaten geeignet sind, um ein dynamisches räumliches Szenario in Bezug auf das Ego-Objekt und wenigstens ein anderes Objekt zu charakterisieren. A first aspect of the invention relates to a method for data processing of dynamic spatial scenarios, in particular traffic scenarios, for processing by an artificial neural network. In this case, a representation of a temporal course of an angle sector, which is covered by another object, in particular another vehicle, from the perspective of an ego object, in particular an ego vehicle, is generated. For this purpose, the course over time is determined from sensor data, the sensor data being suitable for characterizing a dynamic spatial scenario in relation to the ego object and at least one other object.
Ein räumliches Szenario im Sinne der Erfindung wird insbesondere aus einer zeitlichen Abfolge von räumlichen, insbesondere statischen, Szenen gebildet. Die räumlichen Sze- nen geben dabei beispielsweise die räumliche Anordnung von dem wenigstens einen anderen Objekt relativ zum Ego-Objekt, z.B. die Konstellationen von Verkehrsteilneh- mern, an. Ein räumliches Szenario kann insbesondere eine Fahrsituation enthalten, in der ein Fahrerassistenzsystem das Ego-Fahrzeug genannte, mit dem Fahrerassistenz- system ausgestattete Fahrzeug zumindest teilweise steuert, z.B. wenigstens eine Fahr- zeugfunktion des Ego-Fahrzeugs autonom ausführt. A spatial scenario in the sense of the invention is in particular formed from a chronological sequence of spatial, in particular static, scenes. The spatial scenes give, for example, the spatial arrangement of the at least one other object relative to the ego object, e.g. the constellations of road users. A spatial scenario can in particular contain a driving situation in which a driver assistance system at least partially controls the vehicle called the ego vehicle and equipped with the driver assistance system, e.g. carries out at least one vehicle function of the ego vehicle autonomously.
Dynamisch im Sinne der Erfindung bedeutet insbesondere zeitliche Abfolge bzw. zeitli- cher Verlauf. Verkehrsszenarien sind beispielsweise dynamisch, da die einzelnen Ver- kehrsteilnehmer sich im Laufe der Zeit relativ zueinander bewegen, d.h. ihre Positionen relativ zueinander ändern. Dynamic in the sense of the invention means, in particular, temporal sequence or temporal course. Traffic scenarios are dynamic, for example, because the individual traffic turn participants move relative to each other over time, ie change their positions relative to each other.
Eine Darstellung im Sinne der Erfindung ist insbesondere eine graphische Darstellung, z.B. eine Grafik oder ein Diagramm. Die Darstellung enthält vorzugsweise eine, insbe- sondere zwei- oder dreidimensionale, Abbildung. Alternativ oder zusätzlich kann die Darstellung auch eine mathematische Darstellung enthalten, z.B. eine Zuordnungsvor- schrift bzw. eine Funktion. Die Darstellung kann beispielsweise den zeitlichen Verlauf eines Winkelsektors, der aus der Perspektive des Ego-Objekts von dem anderen Objekt abgedeckt wird, in einer kartenähnlichen Abbildung zeigen. A representation in the sense of the invention is in particular a graphic representation, e.g. a graph or chart. The representation preferably contains a, in particular two- or three-dimensional, image. Alternatively or additionally, the representation can also contain a mathematical representation, e.g. an assignment rule or a function. The representation can, for example, show the course over time of an angle sector, which is covered by the other object from the perspective of the ego object, in a map-like illustration.
Sensordaten im Sinne der Erfindung sind insbesondere von realen oder simulierten Sen- soren, insbesondere Umgebungssensoren, erzeugte Daten, insbesondere in der Form von Signalen, d.h. reale oder simulierte Sensordaten. Die Sensoren sind dabei vorzugs- weise dazu eingerichtet, ein Umfeld des Ego-Fahrzeugs zu erfassen und entsprechende Sensordaten zu erzeugen, so dass die Sensordaten das Umfeld des Ego-Fahrzeugs charakterisieren. Bei den Sensordaten handelt es sich vorzugsweise um Sensor- Fusions-Daten, die aus einer Kombination von durch die Sensoren bereitgestellten Sig- nalen erhalten werden und gegebenenfalls bereits, zumindest bis zu einem gewissen Grad, aufbereitet sind. Sensor data in the sense of the invention are, in particular, data generated by real or simulated sensors, in particular environmental sensors, in particular in the form of signals, i.e. real or simulated sensor data. The sensors are preferably set up to record an environment of the ego vehicle and to generate corresponding sensor data so that the sensor data characterize the environment of the ego vehicle. The sensor data are preferably sensor fusion data which are obtained from a combination of signals provided by the sensors and, if appropriate, have already been prepared, at least to a certain extent.
Ein Ego-Objekt im Sinne der Erfindung ist insbesondere dasjenige Objekt, aus dessen Perspektive das dynamische räumliche Szenario betrachtet wird. Ein Ego-Objekt kann beispielsweise ein (Ego-)Fahrzeug sein, aus dessen Sicht ein Verkehrsszenario erfasst und gegebenenfalls analysiert und/oder bewertet wird, etwa um ein Fahrerassistenzsys- tem adäquat steuern bzw. auf das erfasste Verkehrsszenario reagieren lassen zu kön- nen. Daher werden Sensordaten, die beispielsweise zur weiteren Verarbeitung aufberei- tet werden, vorzugsweise von Umgebungssensoren des Ego-Fahrzeugs erzeugt, wobei die Umgebungssensoren wie etwa Ultraschallsensoren, Radarsensoren, Kameras und/oder dergleichen zur Erfassung des Umfelds des Ego-Fahrzeugs eingerichtet sind. An ego object in the sense of the invention is in particular the object from the perspective of which the dynamic spatial scenario is viewed. An ego object can, for example, be a (ego) vehicle, from the point of view of which a traffic scenario is recorded and possibly analyzed and / or evaluated, for example in order to be able to adequately control a driver assistance system or to be able to react to the recorded traffic scenario. For this reason, sensor data that are processed, for example, for further processing are preferably generated by environmental sensors of the ego vehicle, the environmental sensors, such as ultrasound sensors, radar sensors, cameras and / or the like, being set up to detect the environment of the ego vehicle.
Ein Winkelsektor im Sinne der Erfindung ist insbesondere derjenige Bereich, welcher aus der Perspektive des Ego-Objekts von einem anderen Objekt eingenommen wird. Aus Sicht eines Ego-Fahrzeugs korrespondiert der Winkelsektor beispielsweise mit demjeni- gen Bereich, der durch ein anderes Fahrzeug abgedeckt wird. Vorzugsweise wird der Winkelsektor dabei durch die Querschnittsfläche des Objekts bzw. dessen Kontur defi- niert. Beispielsweise kann der Winkelsektor durch eine maximale Ausdehnung der Quer- schnittsfläche bzw. Kontur entlang einer vorgegebenen Richtung, insbesondere in hori- zontaler Richtung, definiert sein. An angular sector in the sense of the invention is in particular that area which is taken up by another object from the perspective of the ego object. From the perspective of an ego vehicle, the angle sector corresponds, for example, to the area that is covered by another vehicle. Preferably the The angle sector is defined by the cross-sectional area of the object or its contour. For example, the angle sector can be defined by a maximum extension of the cross-sectional area or contour along a predetermined direction, in particular in the horizontal direction.
Die Erfindung basiert insbesondere auf dem Ansatz, aus Sensordaten ermittelte Informa- tion bezüglich eines dynamischen räumlichen Szenarios, etwa einer Verkehrssituation, in einer Darstellung zu codieren. Die Darstellung kann daher auch als Abstraktion des Sze- narios aufgefasst werden und dient insbesondere dazu, verschiedene Informationstypen, beispielsweise Positionen, Translationen, Anzahl von Objekten und/oder dergleichen, zusammenzufassen. The invention is based in particular on the approach of encoding information relating to a dynamic spatial scenario, for example a traffic situation, determined from sensor data in a representation. The representation can therefore also be understood as an abstraction of the scenario and serves in particular to summarize different types of information, for example positions, translations, number of objects and / or the like.
Die Darstellung wird vorzugsweise auf Grundlage der zeitlichen Entwicklung eines Win- kelsektors erzeugt, in dem das Sichtfeld eines Ego-Objekts von einem anderen Objekt abgedeckt wird. Mit Hilfe des Winkelsektors können dabei insbesondere Konstellation von Objekten in räumlichen Szenen relativ zueinander beschrieben werden. Die Darstel- lung ist vorzugsweise eine grafische, insbesondere zwei- oder dreidimensionale, Abbil- dung, die - in abstrakter weise - sowohl die Position als auch die Bewegung der Objekte relativ zueinander zeigt. Beispielsweise kann die Bewegung eines Objekts in der Abbil- dung durch eine, insbesondere geometrische, Form repräsentiert werden. The representation is preferably generated on the basis of the temporal development of an angular sector in which the field of vision of an ego object is covered by another object. With the help of the angle sector, in particular constellations of objects in spatial scenes can be described relative to each other. The representation is preferably a graphic, in particular two- or three-dimensional, image, which - in an abstract manner - shows both the position and the movement of the objects relative to one another. For example, the movement of an object in the illustration can be represented by a shape, in particular a geometric shape.
Vorzugsweise kann auf der Grundlage seiner Analyse solch einer Abbildung eine cha- rakteristische Form gefunden werden. Dabei ist die Form insbesondere charakteristisch für das dynamische räumliche Szenario in Bezug auf das Ego-Objekt und wenigstens ein anderes Objekt. Mit anderen Worten stellt die charakteristische Form ein Muster dar, das z.B. mittels eines künstlichen neuronalen Netzes durch Analyse einer solchen Darstel- lung, gegebenenfalls auch mehrerer solcher Darstellungen, die auf Basis der Sensorda- ten erzeugt wurden, gefunden werden kann. A characteristic form can preferably be found on the basis of its analysis of such an image. The shape is particularly characteristic of the dynamic spatial scenario in relation to the ego object and at least one other object. In other words, the characteristic shape is a pattern that e.g. can be found by means of an artificial neural network by analyzing such a representation, possibly also several such representations that were generated on the basis of the sensor data.
Im Umkehrschluss kann auch, wenn die charakteristischen Formen bzw. Muster für ver- schiedene dynamische räumliche Szenarien bekannt sind und z.B. als Schablonen vor- liegen, anhand einer Auswertung einer Darstellung das entsprechende dynamische räumliche Szenario ermittelt werden. Die auf der zeitlichen Entwicklung des Winkelsektors basierende Darstellung eines dy- namischen räumlichen Szenarios hat den Vorteil, dass ihr Informationsgehalt nicht oder zumindest nur geringfügig von Variationen des Szenarios abhängt. Verschiedene Varian- ten des Szenarios, etwa ein besonders schnell oder besonders langsam ausgeführtes Fahrmanöver, erzeugen zwar unterschiedliche Abbildungen in der Darstellung, jedoch mit im Wesentlichen gleicher oder zumindest ähnlicher Form. Conversely, if the characteristic shapes or patterns for different dynamic spatial scenarios are known and are available, for example, as templates, the corresponding dynamic spatial scenario can be determined on the basis of an evaluation of a representation. The representation of a dynamic spatial scenario based on the temporal development of the angle sector has the advantage that its information content does not depend, or at least only slightly, on variations in the scenario. Different variants of the scenario, for example a particularly fast or particularly slow driving maneuver, produce different images in the display, but with essentially the same or at least a similar shape.
Beispielsweise erzeugt das Aufträgen des Winkelsektors, der bezüglich des Sichtfelds eines Ego-Fahrzeugs von einem anderen Fahrzeug abgedeckt wird und damit die Positi- on des anderen Fahrzeugs relativ zum Ego-Fahrzeug darstellt, gegen die Zeit ein Mus- ter, dessen Form für das vom anderen Fahrzeug durchgeführte Fahrmanöver charakte- ristisch ist. Entfernt sich das andere Fahrzeug z.B. vom Ego-Fahrzeug, wird der abge- deckte Winkelsektor etwa kleiner, während er sich bei einer Annäherung entsprechend vergrößert. Bewegt sich das andere Fahrzeug z.B. bezüglich der Fahrtrichtung seitlich zum Ego-Fahrzeug, verschiebt sich der abgedeckte Winkelsektor. Das dabei entstehen- de Muster, das beispielsweise eine charakteristische Krümmung aufweist, kann dann einem Fahrmanöver zuverlässig zugeordnet werden, auch wenn die Abbildung in Ab- hängigkeit der Durchführung des Fahrmanövers, etwa aggressiv oder defensiv, in der Regel variiert, z.B. gestaucht oder gestreckt ist. For example, plotting the angular sector, which is covered by another vehicle with respect to the field of vision of a ego vehicle and thus represents the position of the other vehicle relative to the ego vehicle, generates a pattern over time, the shape of which is for that of driving maneuvers performed in another vehicle is characteristic. If the other vehicle moves away from the ego vehicle, the covered angular sector becomes somewhat smaller, while it increases correspondingly when approached. If the other vehicle is moving e.g. with respect to the direction of travel to the side of the ego vehicle, the covered angle sector shifts. The resulting pattern, which, for example, has a characteristic curvature, can then be reliably assigned to a driving maneuver, even if the image generally varies, for example aggressively or defensively, depending on the execution of the driving maneuver, e.g. is compressed or stretched.
Die Darstellung der zeitlichen Entwicklung des Winkelsektors erlaubt es somit, verschie- dene Typen von Information in kompakter Weise zusammenzufassen. Da hierbei ein Zeitablauf dargestellt wird, werden Überlappungen, z.B. von graphischen Elementen, und ein damit verbundener Informationsverlust vermieden oder zumindest reduziert. Zu- gleich kann in Folge beispielsweise Speicherplatz eingespart und das Auswerten von Sensordaten beschleunigt werden. Gleichzeitig ermöglicht die Darstellung eine zuverläs- sige Identifikation von dynamischen räumlichen Szenarien. The representation of the temporal development of the angular sector thus enables various types of information to be summarized in a compact manner. Since a time lapse is shown here, overlaps, e.g. of graphic elements, and an associated loss of information avoided or at least reduced. At the same time, for example, storage space can be saved and the evaluation of sensor data can be accelerated. At the same time, the display enables reliable identification of dynamic spatial scenarios.
Gegenüber Gitterkarten hat die Darstellung der zeitlichen Entwicklung des Winkelsektors z.B. den Vorteil, dass die gleiche Information durch eine wesentlich geringere Daten- menge abgebildet werden kann. In einer Gitterkarte tragen einzelne Pixel, die nicht durch ein anderes Fahrzeug belegt sind (d.h.„leere“ Pixel), beispielsweise nicht zum Informati- onsgehalt, der etwa von einem künstlichen neuronalen Netz genutzt werden kann, bei. Insbesondere kann die benötigte Datenmenge, um ein künstliches neuronales Netz zu trainieren, durch die Verwendung der Darstellung der zeitlichen Entwicklung des Winkel- sektors um einen Faktor 27 reduziert werden. Compared to grid maps, the representation of the temporal development of the angle sector has the advantage, for example, that the same information can be represented by a much smaller amount of data. In a grid map, individual pixels that are not occupied by another vehicle (ie “empty” pixels), for example, do not contribute to the information content that can be used by an artificial neural network, for example. In particular, the amount of data required to create an artificial neural network train can be reduced by a factor of 27 by using the representation of the temporal development of the angular sector.
Insgesamt ermöglicht es die vorliegende Erfindung, die Verarbeitung von Sensordaten weiter zu verbessern. Es kann insbesondere die Aufbereitung von Sensordaten für die Verarbeitung durch ein künstliches neuronales Netz verbessert werden, beispielsweise indem ein Informationsverlust bei der Aufbereitung verhindert oder zumindest reduziert wird. Overall, the present invention makes it possible to further improve the processing of sensor data. In particular, the processing of sensor data for processing by an artificial neural network can be improved, for example by preventing or at least reducing information loss during processing.
Nachfolgend werden bevorzugte Ausführungsformen der Erfindung und deren Weiterbil- dungen beschrieben, die jeweils, soweit dies nicht ausdrücklich ausgeschlossen wird, beliebig miteinander sowie mit den im Weiteren beschriebenen Aspekten der Erfindung kombiniert werden können. Preferred embodiments of the invention and their further developments are described below, each of which, as far as this is not expressly excluded, can be combined with one another as desired and with the aspects of the invention described below.
In einer bevorzugten Ausführungsform wird die Darstellung an ein künstliches neurona- les Netz ausgegeben oder für die Verarbeitung durch das künstliche neuronale Netz be- reitgestellt. Beispielsweise kann die Darstellung als Datenpaket, insbesondere als digita- les Bild, auf einem Speichermedium gespeichert oder über eine Schnittstelle direkt an das künstliche neuronale Netz übertragen werden. Dadurch können auch große Mengen an Sensordaten zum Trainieren des künstlichen neuronalen Netzes, insbesondere zum Ermitteln von für ein vorgegebenes Szenario charakteristischen Mustern in der Darstel- lung, wie etwa der Form einer Figur in der Darstellung, herangezogen werden. In a preferred embodiment, the representation is output to an artificial neural network or made available for processing by the artificial neural network. For example, the representation can be stored as a data packet, in particular as a digital image, on a storage medium or transmitted directly to the artificial neural network via an interface. As a result, large amounts of sensor data can also be used to train the artificial neural network, in particular to determine patterns in the representation that are characteristic of a given scenario, such as the shape of a figure in the representation.
Ein zweiter Aspekt der Erfindung betrifft ein Computer-gestütztes Verfahren zum Trainie- ren eines künstlichen neuronalen Netzes auf der Grundlage von Sensordaten, welche geeignet sind, um ein bekanntes dynamisches räumliches Szenario in Bezug auf ein Ego-Objekt und wenigstens ein anderes Objekt zu charakterisieren. Dabei wird eine Darstellung eines zeitlichen Verlaufs eines Winkelsektors, welcher aus der Perspektive eines Ego-Objekts, insbesondere eines Ego-Fahrzeugs, durch ein anderes Objekt, ins- besondere ein anderes Fahrzeug, abgedeckt ist, auf der Grundlage der Sensordaten erzeugt. Die erzeugte Darstellung zusammen wird mit einer Information über das räumli- che Szenario dem künstlichen neuronalen Netz zugeführt. Dadurch kann das künstliche neuronale Netz besonders schnell und zuverlässig auf das Erkennen von für verschie- dene Szenarios charakteristischen Mustern trainiert werden. Die Information über das räumliche Szenario enthält dabei in bevorzugter Weise einen Hinweis auf eine Klassifizierung (engl label) des Szenarios, mit dessen Hilfe das Szena- rio, vorzugsweise eindeutig, identifiziert werden kann. Die Information kann dabei bereits in den Sensordaten enthalten sein, etwa wenn es sich um simulierte Sensordaten han- delt, die von einem Simulator bei der Simulation eines bestimmten Szenarios erzeugt wurden. Alternativ kann die Information dem künstlichen neuronalen Netz aber auch als separater Datenstrom zugeführt werden, etwa wenn die Sensordaten zuvor bereits ana- lysiert und bezüglich wenigstens eines Szenarios klassifiziert wurden. Diese Klassifizie- rung kann insbesondere manuell durchgeführt worden sein, beispielsweise durch die Analyse eines mit den Sensordaten korrespondierenden Bilderstroms. A second aspect of the invention relates to a computer-based method for training an artificial neural network on the basis of sensor data which are suitable for characterizing a known dynamic spatial scenario in relation to an ego object and at least one other object. A representation of a time profile of an angle sector, which is covered from the perspective of an ego object, in particular an ego vehicle, by another object, in particular another vehicle, is generated on the basis of the sensor data. The generated representation together with information about the spatial scenario is fed to the artificial neural network. As a result, the artificial neural network can be trained particularly quickly and reliably to recognize patterns that are characteristic of different scenarios. The information about the spatial scenario preferably contains an indication of a classification of the scenario, with the aid of which the scenario can be identified, preferably uniquely. The information can already be contained in the sensor data, for example if it is simulated sensor data that was generated by a simulator when simulating a specific scenario. Alternatively, the information can also be supplied to the artificial neural network as a separate data stream, for example if the sensor data have already been analyzed and classified in relation to at least one scenario. This classification can in particular have been carried out manually, for example by analyzing an image stream corresponding to the sensor data.
Ein dritter Aspekt der Erfindung betrifft ein Computer-gestütztes Verfahren zum Analysie- ren von Sensordaten, welche geeignet sind, um ein dynamisches räumliches Szenario in Bezug auf ein Ego-Objekt und wenigstens ein anderes Objekt zu charakterisieren. Dabei wird eine Darstellung eines zeitlichen Verlaufs eines Winkelsektors, welcher aus der Perspektive eines Ego-Objekts, insbesondere eines Ego-Fahrzeugs, durch ein anderes Objekt, insbesondere ein anderes Fahrzeug, abgedeckt ist, auf der Grundlage der Sens- ordaten erzeugt. Die erzeugte Darstellung wird mit wenigstens einer vordefinierten Schablone eines bekannten dynamischen räumlichen Szenarios verglichen. Dadurch kann anhand eines Sensordatenstroms, wie er beispielsweise von Umgebungssensoren eines Fahrzeugs bereitgestellt wird, ein Vorliegen eines bekannten Szenarios besonders schnell und zuverlässig erkannt werden. A third aspect of the invention relates to a computer-aided method for analyzing sensor data which are suitable for characterizing a dynamic spatial scenario in relation to an ego object and at least one other object. A representation of a time profile of an angle sector, which is covered by another object, in particular another vehicle, from the perspective of an ego object, in particular an ego vehicle, is generated on the basis of the sensor data. The generated representation is compared with at least one predefined template of a known dynamic spatial scenario. This means that a known scenario can be detected particularly quickly and reliably on the basis of a sensor data stream, such as is provided by environmental sensors of a vehicle.
Die vordefinierte Schablone ist in bevorzugter Weise eine generische Darstellung der zeitlichen Entwicklung des Winkelsektors, die z.B. alle wesentlichen charakteristischen Muster eines Szenarios enthält. Beispielsweise kann die vordefinierte Schablone eine Darstellung sein, die wenigstens eine Figur enthält, deren Form charakteristisch für ein Fahrmanöver eines Fahrzeugs ist, das im Rahmen eines Verkehrsszenarios ausgeführt wird. The predefined template is preferably a generic representation of the temporal development of the angle sector, which e.g. contains all essential characteristic patterns of a scenario. For example, the predefined template can be a representation that contains at least one figure, the shape of which is characteristic of a driving maneuver of a vehicle that is carried out in the context of a traffic scenario.
Vorzugsweise wird die vordefinierte Schablone auf der Grundlage von mehreren Darstel- lungen, die charakteristisch für das bekannte dynamische räumliche Szenario sind, er- mittelt. Insbesondere können die mehreren Darstellungen, die charakteristisch für das bekannte Szenario sind, gemittelt werden. Diese Darstellungen können dabei beispiels- weise zuvor aus Sensordaten, die bezüglich des Szenarios klassifiziert wurden, erzeugt worden sein. Dadurch kann ein hohes Maß an Zuverlässigkeit beim Vergleichen der er- zeugten Darstellung mit der vordefinierten Schablone erreicht werden. The predefined template is preferably determined on the basis of a number of representations which are characteristic of the known dynamic spatial scenario. In particular, the multiple representations that are characteristic of the known scenario can be averaged. These representations can be generated beforehand, for example, from sensor data that have been classified in relation to the scenario have been. As a result, a high degree of reliability can be achieved when comparing the generated representation with the predefined template.
In einer bevorzugten Ausführungsform wird das dynamische räumliche Szenario auf der Grundlage des Vergleichens klassifiziert, etwa indem die ermittelte Darstellung der we- nigstens einen vordefinierten Schablone zugeordnet wird. Dadurch kann das Szenario zuverlässig identifiziert und gegebenenfalls Reaktionen eines Fahrerassistenzsystem ausgelöst werden. In a preferred embodiment, the dynamic spatial scenario is classified on the basis of the comparison, for example by assigning the determined representation to the at least one predefined template. This enables the scenario to be reliably identified and, if necessary, reactions of a driver assistance system to be triggered.
Vorzugsweise wird beim Vergleichen der erzeugten Darstellung mit der vordefinierten Schablone ein Ähnlichkeitsmaß ermittelt, auf dessen Grundlage das Szenario beispiels- weise klassifiziert und die erzeugte Darstellung einem Szenario zugeordnet werden kann. Es ist z.B. denkbar, die erzeugte Darstellung demjenigen Szenario zuzuordnen, auf dessen vordefinierte Schablonen sich die erzeugte Darstellung mittels eines Verfah- rens zur elastischen Anpassung (engl elastic matching oder nonlinear template mat- ching) am besten abbilden lässt, d.h. für die ein durch das Verfahren erhaltenes Ähnlich- keitsmaß maximal wird. Dadurch kann das Szenario besonders zuverlässig identifiziert werden. When comparing the generated representation with the predefined template, a measure of similarity is preferably determined, on the basis of which the scenario can be classified, for example, and the generated representation can be assigned to a scenario. It is e.g. it is conceivable to assign the generated representation to the scenario on the predefined templates of which the generated representation can best be represented by means of an elastic matching or nonlinear template matching method, i.e. for which a similarity measure obtained by the method becomes maximum. This enables the scenario to be identified particularly reliably.
In einer weiteren bevorzugten Ausführungsform wird eine Schablone für ein neues dy- namischen räumliches Szenarios definiert, wenn die erzeugte Darstellung nicht der we- nigstens einen vordefinierten Schablone eines bekannten dynamischen räumlichen Sze- narios zugeordnet werden kann. Dadurch können neue dynamische Szenarien identifi- ziert, insbesondere klassifiziert, werden. Insbesondere können neue dynamische Szena- rien somit im Wesentlichen in Echtzeit identifiziert werden. In a further preferred embodiment, a template is defined for a new dynamic spatial scenario if the generated representation cannot be assigned to the at least one predefined template of a known dynamic spatial scenario. This enables new dynamic scenarios to be identified, in particular classified. In particular, new dynamic scenarios can thus be identified essentially in real time.
Beispielsweise kann eine Schablone für ein neues dynamisches räumliches Szenario definiert werden, wenn ein beim Vergleichen der erzeugten Darstellung ermitteltes Ähn- lichkeitsmaß einen vorgegebenen Schwellenwert nicht erreicht. Dadurch kann auf einfa- che Weise, insbesondere in Echtzeit, ein Katalog von vordefinierten Schablonen von bekannten dynamischen räumlichen Szenarien erzeugt werden. For example, a template can be defined for a new dynamic spatial scenario if a similarity measure determined when comparing the generated representation does not reach a predetermined threshold value. As a result, a catalog of predefined templates of known dynamic spatial scenarios can be generated in a simple manner, in particular in real time.
In einer weiteren bevorzugten Ausführungsform gibt die erzeugte Darstellung des Weite- ren einen, insbesondere transversalen, Abstand des Ego-Objekts zu dem anderen Ob- jekt und/oder einer, insbesondere transversalen, Geschwindigkeit des Ego-Objekts wie- der, wobei der Abstand und/oder die Geschwindigkeit ebenfalls aus Sensordaten ermit- telt ist oder sind. Dabei ist die entsprechende Abstandsinformation bzw. Geschwindig- keitsinformation vorzugsweise derart in der Darstellung encodiert, dass sie unabhängig wenigstens von der räumlichen Anordnung des anderen Objekts relativ zum Ego-Objekt ausgelesen werden kann. Durch Berücksichtigung des Abstands und/oder der Ge- schwindigkeit kann ein vorliegendes dynamisches räumliches Szenario besonders zuver- lässig identifiziert werden. Insbesondere ermöglicht die Berücksichtigung des Abstands und/oder der Geschwindigkeit auch eine besonders feine Unterscheidung zwischen ver- schiedenen dynamischen räumlichen Szenarien. In a further preferred embodiment, the generated representation of the further gives a, in particular transverse, distance of the ego object to the other object and / or a, in particular transverse, speed of the ego object. the distance and / or the speed is also or are determined from sensor data. The corresponding distance information or speed information is preferably encoded in the representation in such a way that it can be read independently of at least the spatial arrangement of the other object relative to the ego object. By considering the distance and / or the speed, a dynamic spatial scenario can be identified particularly reliably. In particular, the consideration of the distance and / or the speed also enables a particularly fine distinction between different dynamic spatial scenarios.
Die Geschwindigkeit des Ego-Objekts kann insbesondere eine Transversalgeschwindig- keit, d.h. eine Geschwindigkeitskomponente im Wesentlichen senkrecht zur dominanten (longitudinalen) Bewegungsrichtung, z.B. einer Fahrtrichtung, des Ego-Objekts, aufwei- sen. Vorzugsweise ist die in der erzeugten Darstellung wiedergegebene Geschwindigkeit des Ego-Objekts ausschließlich aus der Transversalgeschwindigkeit gebildet. The speed of the ego object can in particular be a transverse speed, i.e. a velocity component essentially perpendicular to the dominant (longitudinal) direction of movement, e.g. a direction of travel, the ego object. The speed of the ego object reproduced in the representation produced is preferably formed exclusively from the transverse speed.
Bei Geradeausfahrt ist Transversalgeschwindigkeit des Ego-Fahrzeugs beispielsweise Null, während sie bei einem Spurwechsel bis auf einen maximalen Wert anwächst und dann wieder auf Null abfällt. For example, when driving straight ahead, the transverse speed of the ego vehicle is zero, while when changing lanes it increases to a maximum value and then drops back to zero.
Anhand der in der Darstellung wiedergegebenen Geschwindigkeit kann z.B. zwischen einem Spurwechsel, der vom Ego-Fahrzeug durchgeführt wird, und einem Spurwechsel, der von einem anderen Fahrzeug durchgeführt wird, unterschieden werden. Da sich die- se beiden Fahrmanöver bezüglich der relativen Bewegung des Ego-Fahrzeugs und des anderen Fahrzeugs zueinander nicht unterscheiden, d.h. die Darstellung in beiden Fällen beispielsweise die gleiche Figur zeigt, ermöglicht erst die Berücksichtigung der Trans- versalgeschwindigkeit des Ego-Fahrzeugs eine zuverlässige Aussage, welches Fahr- zeug die Fahrspur wechselt. Based on the speed shown in the illustration, e.g. a distinction is made between a lane change carried out by the ego vehicle and a lane change carried out by another vehicle. Since these two driving maneuvers do not differ with respect to the relative movement of the ego vehicle and the other vehicle to one another, i.e. the representation in both cases, for example, shows the same figure, only when the transversal speed of the ego vehicle is taken into account does it enable a reliable statement to be made as to which vehicle is changing lanes.
Der Abstand des Ego-Objekts zum anderen Objekt kann insbesondere einen Transver- salabstand, d.h. eine Abstandskomponente im Wesentlichen senkrecht zur dominanten (longitudinalen) Bewegungsrichtung, z.B. einer Fahrtrichtung, des Ego-Objekts, aufwei- sen. Vorzugsweise ist der in der erzeugten Darstellung wiedergegebene Abstand des Ego-Objekts zum anderen Objekt ausschließlich aus dem Transversalabstand gebildet. Wird das Ego-Fahrzeug beispielsweise von einem anderen Fahrzeug auf einer benach- barten Fahrspur überholt, ändert sich der absolute Abstand zwischen dem Ego-Fahrzeug und dem anderen Fahrzeug. Der Transversalabstand bleibt jedoch konstant, solange weder das Ego-Fahrzeug noch andere Fahrzeugs seine jeweilige Fahrspur verlässt. Die Änderung des Transversalabstands erlaubt daher (weitere) Rückschlüsse auf das, etwa im Rahmen eines Szenarios, durchgeführte Manöver. The distance of the ego object to the other object can in particular have a transversal distance, ie a distance component essentially perpendicular to the dominant (longitudinal) direction of movement, for example a direction of travel, of the ego object. The distance of the ego object to the other object reproduced in the representation produced is preferably formed exclusively from the transverse distance. If the ego vehicle is overtaken by another vehicle in an adjacent lane, for example, the absolute distance between the ego vehicle and the other vehicle changes. However, the transverse distance remains constant as long as neither the ego vehicle nor any other vehicle leaves its respective lane. The change in the transverse distance therefore allows (further) conclusions to be drawn about the maneuver carried out, for example in the context of a scenario.
In einer weiteren bevorzugten Ausführungsform wird der zeitliche Verlauf eines Winkel- sektors durch eine Linie dargestellt, deren Breite einen Wert des jeweils vorliegenden Winkelsektors angibt. Alternativ oder zusätzlich wird oder werden ein Abstand des Ego- Objekts zu dem anderen Objekt und/oder eine Geschwindigkeit des Ego-Objekts durch einen hinterlegten Wert oder eine Einfärbung an der jeweiligen Stelle der Linie, welche dem Zeitpunkt des Vorliegens des Abstands und/oder der Geschwindigkeit entspricht, dargestellt. In a further preferred embodiment, the time profile of an angle sector is represented by a line, the width of which indicates a value of the respective angle sector. As an alternative or in addition, a distance of the ego object to the other object and / or a speed of the ego object is or become by a stored value or a coloring at the respective position of the line, which corresponds to the time of the presence of the distance and / or Corresponds to the speed shown.
Der hinterlegte Wert bzw. die Einfärbung der Linie kann alternativ oder zusätzlich durch eine, insbesondere generische, Funktion ermittelt werden, in die als Eingangsgrößen z.B. der, insbesondere transversale, Abstand zwischen dem Ego-Objekt und dem ande- ren Objekt und/oder die, insbesondere transversale, Geschwindigkeit des Ego-Objekts eingehen. Anhand der Funktion kann beispielsweise der Abstand und die Geschwindig- keit, gegebenenfalls unter Berücksichtigung einer Gewichtung, addiert oder multipliziert werden. Insbesondere kann die Geschwindigkeit mit dem Abstand oder der Abstand mit der Geschwindigkeit gewichtet werden. Die dadurch erhalte, in der Darstellung oder durch den hinterlegten Wert wiedergegebene Information ermöglicht eine besonders zu- verlässige und detaillierte Unterscheidung von Fahrmanövern bzw. den damit korres- pondierenden dynamischen räumlichen Szenarien. The stored value or the coloring of the line can alternatively or additionally be determined by a, in particular generic, function, into which, for example, input variables the, in particular transverse, distance between the ego object and the other object and / or the, in particular transverse, speed of the ego object. The function can be used, for example, to add or multiply the distance and the speed, possibly taking a weighting into account. In particular, the speed can be weighted with the distance or the distance with the speed. The information obtained in this way, represented in the representation or by the stored value, enables a particularly reliable and detailed distinction to be made between driving maneuvers and the corresponding dynamic spatial scenarios.
Die Funktion wird dabei vorzugsweise dazu verwendet, um die Wahrnehmung eines künstlichen neuronalen Netzes zu manipulieren. Mit anderen Worten kann die Funktion so gewählt werden, dass die daraus resultierenden Darstellungen das von dem künstli- chen neuronalen Netz erkannte Muster beeinflussen. Dadurch können unterschiedliche dynamische räumliche Szenarien besonders zuverlässig unterschieden werden. The function is preferably used to manipulate the perception of an artificial neural network. In other words, the function can be selected so that the resulting representations influence the pattern recognized by the artificial neural network. As a result, different dynamic spatial scenarios can be distinguished particularly reliably.
Alternativ oder zusätzlich können auch andere Parameter als der Abstand zwischen dem Ego-Objekt und dem anderen Objekt und/oder die Geschwindigkeit des Ego-Objekts als Eingangsgrößen der Funktion gewählt werden. Die Parameter können z.B. in Abhängig- keit von dem, insbesondere bekannten, dynamischen räumlichen Szenario gewählt wer- den. Vorzugsweise werden Parameter als Eingangsgrößen gewählt, die das dynamische räumliche Szenario zumindest teilweise charakterisieren. Alternatively or additionally, parameters other than the distance between the ego object and the other object and / or the speed of the ego object can also be considered Input variables of the function can be selected. The parameters can be selected, for example, depending on the, in particular known, dynamic spatial scenario. Parameters are preferably selected as input variables that at least partially characterize the dynamic spatial scenario.
Ein vierter Aspekt der Erfindung betrifft ein System zur Datenaufbereitung von dynami- schen räumlichen Szenarien, insbesondere Verkehrsszenarien, für die Verarbeitung durch ein künstliches neuronales Netz. Das System weist ein Ermittlungsmodul auf, wel- ches dazu eingerichtet ist, einen zeitlichen Verlauf eines Winkelsektors, welcher aus der Perspektive eines Ego-Objekts, insbesondere eines Ego-Fahrzeugs, durch ein anderes Objekt, insbesondere ein anderes Fahrzeug, abgedeckt wird, aus Sensordaten zu ermit- teln. Die Sensordaten sind dabei geeignet, um ein dynamisches räumliches Szenario in Bezug auf das Ego-Objekt und wenigstens ein anderes Objekt zu charakterisieren. Das System weist zudem ein Erzeugungsmodul auf, welches dazu eingerichtet ist, eine Dar- stellung des ermittelten zeitlichen Verlaufs zu erzeugen. A fourth aspect of the invention relates to a system for data processing of dynamic spatial scenarios, in particular traffic scenarios, for processing by an artificial neural network. The system has a determination module which is set up to use sensor data to plot a time profile of an angle sector, which is covered by another object, in particular another vehicle, from the perspective of an ego object, in particular an ego vehicle to investigate. The sensor data are suitable for characterizing a dynamic spatial scenario in relation to the ego object and at least one other object. The system also has a generation module which is set up to generate a representation of the determined time profile.
Ein fünfter Aspekt der Erfindung betrifft ein System zum Trainieren eines künstlichen neuronalen Netzes auf der Grundlage von Sensordaten, welche geeignet sind, um ein bekanntes dynamisches räumliches Szenario in Bezug auf ein Ego-Objekt und wenigs- tens ein anderes Objekt zu charakterisieren. Das System weist ein Erzeugungsmodul auf, welches dazu eingerichtet ist, eine Darstellung eines zeitlichen Verlaufs eines Win- kelsektors, welcher aus der Perspektive eines Ego-Objekts, insbesondere eines Ego- Fahrzeugs, durch ein anderes Objekt, insbesondere ein anderes Fahrzeug, abgedeckt ist, auf der Grundlage der Sensordaten zu erzeugen. Das System weist zudem eine Schnittstelle auf, die dazu eingerichtet ist, die erzeugte Darstellung zusammen mit einer Information über das räumliche Szenario dem künstlichen neuronalen Netz zuzuführen. A fifth aspect of the invention relates to a system for training an artificial neural network based on sensor data which are suitable for characterizing a known dynamic spatial scenario in relation to an ego object and at least one other object. The system has a generation module which is set up to display a time profile of an angle sector which is covered by another object, in particular another vehicle, from the perspective of an ego object, in particular an ego vehicle. to generate based on the sensor data. The system also has an interface that is set up to supply the generated representation together with information about the spatial scenario to the artificial neural network.
Ein sechster Aspekt der Erfindung betrifft ein System zum Analysieren von Sensordaten, welche geeignet sind, um ein dynamisches räumliches Szenario in Bezug auf ein Ego- Objekt und wenigstens ein anderes Objekt zu charakterisieren. Das System weist ein Erzeugungsmodul auf, welches dazu eingerichtet ist, eine Darstellung eines zeitlichen Verlaufs eines Winkelsektors, welcher aus der Perspektive eines Ego-Objekts, insbe- sondere eines Ego-Fahrzeugs, durch ein anderes Objekt, insbesondere ein anderes Fahrzeug, abgedeckt ist, auf der Grundlage der Sensordaten zu erzeugen. Das System weist zudem ein Vergleichsmodul auf, welches dazu eingerichtet ist, die erzeugte Dar- Stellung mit wenigstens einer vordefinierten Schablone eines bekannten dynamischen räumlichen Szenarios zu vergleichen. A sixth aspect of the invention relates to a system for analyzing sensor data which are suitable for characterizing a dynamic spatial scenario in relation to an ego object and at least one other object. The system has a generation module which is set up to display a time profile of an angular sector which is covered by another object, in particular another vehicle, from the perspective of an ego object, in particular an ego vehicle. to generate based on the sensor data. The system also has a comparison module which is set up to display the generated data. Compare position with at least one predefined template of a known dynamic spatial scenario.
Die in Bezug auf den ersten Aspekt der Erfindung und dessen vorteilhafte Ausgestaltung beschriebenen Merkmale und Vorteile gelten, zumindest wo technisch sinnvoll, auch für den zweiten, dritten, vierten, fünften und sechsten Aspekt der Erfindung und dessen vor- teilhafte Ausgestaltung sowie umgekehrt. The features and advantages described in relation to the first aspect of the invention and its advantageous embodiment also apply, at least where it makes technical sense, to the second, third, fourth, fifth and sixth aspect of the invention and its advantageous embodiment, and vice versa.
Weitere Merkmale, Vorteile und Anwendungsmöglichkeiten der Erfindung ergeben sich aus der nachfolgenden Beschreibung im Zusammenhang mit den Figuren, in denen durchgängig dieselben Bezugszeichen für dieselben oder einander entsprechende Ele- mente der Erfindung verwendet werden. Es zeigen wenigstens teilweise schematisch: Further features, advantages and possible uses of the invention result from the following description in connection with the figures, in which the same reference numerals are used throughout for the same or corresponding elements of the invention. At least partially, they show schematically:
Fig. 1 jeweils ein bevorzugtes Ausführungsbeispiel eines erfindungsgemäßen Systems zur Datenaufbereitung und eines erfindungsgemäßen Systems zum Trainieren ei- nes künstlichen neuronalen Netzes; 1 each shows a preferred exemplary embodiment of a system according to the invention for data processing and of a system according to the invention for training an artificial neural network;
Fig. 2 ein bevorzugtes Ausführungsbeispiel eines erfindungsgemäßen Systems zur Ana- lyse von Sensordaten; 2 shows a preferred exemplary embodiment of a system according to the invention for analyzing sensor data;
Fig. 3 ein Beispiel für das Ermitteln eines Winkelsektors in einem Verkehrsszenario; 3 shows an example for determining an angle sector in a traffic scenario;
Fig. 4 ein erstes Beispiel zur Erläuterung des Zusammenhangs zwischen einer erfin- dungsgemäßen Darstellung und einem korrespondieren dynamischen räumlichen Szenario; 4 shows a first example to explain the relationship between a representation according to the invention and a corresponding dynamic spatial scenario;
Fig. 5 ein zweites Beispiel zur Erläuterung des Zusammenhangs zwischen einer erfin- dungsgemäßen Darstellung und einem korrespondieren dynamischen räumlichen Szenario; 5 shows a second example to explain the relationship between a representation according to the invention and a corresponding dynamic spatial scenario;
Fig. 6 jeweils ein bevorzugtes Ausführungsbeispiel eines erfindungsgemäßen Verfah- rens zur Datenaufbereitung und eines erfindungsgemäßen Verfahrens zum Trai- nieren eines künstlichen neuronalen Netzes; und Fig. 7 ein bevorzugtes Ausführungsbeispiel eines erfindungsgemäßen Verfahrens zur Datenauswertung. 6 each shows a preferred exemplary embodiment of a method according to the invention for data processing and of a method according to the invention for training an artificial neural network; and 7 shows a preferred exemplary embodiment of a method for data evaluation according to the invention.
Fig. 1 zeigt jeweils ein bevorzugtes Ausführungsbeispiel eines erfindungsgemäßen Sys- tems 100 zur Datenaufbereitung von dynamischen räumlichen Szenarien und eines er- findungsgemäßen Systems 200 zum Trainieren eines künstlichen neuronalen Netzes 1. Das System 100 zur Datenaufbereitung weist ein Ermittlungsmodul 2 und ein Erzeu- gungsmodul 3 auf, wobei das Ermittlungsmodul 2 dazu eingerichtet ist, einen zeitlichen Verlauf eines Winkelsektors, der aus der Perspektive eines Ego-Objekts durch ein ande- res Objekt abgedeckt wird, aus Sensordaten S zu ermitteln, und wobei das Erzeu- gungsmodul 3 dazu eingerichtet ist, eine Darstellung des ermittelten zeitlichen Verlaufs zu erzeugen. Das System 200 zum Trainieren des künstlichen neuronalen Netzes 1 weist das Erzeugungsmodul 3 und eine Schnittstelle 4 auf, wobei die Schnittstelle 4 dazu eingerichtet ist, die erzeugte Darstellung zusammen mit einer Information über ein dy- namisches räumliches Szenario dem künstlichen neuronalen Netz 1 zuzuführen. 1 shows a preferred exemplary embodiment of a system 100 according to the invention for data processing in dynamic spatial scenarios and a system 200 according to the invention for training an artificial neural network 1. The system 100 for data processing has a determination module 2 and a generation module 3 , wherein the determination module 2 is set up to determine a temporal profile of an angle sector, which is covered by another object from the perspective of an ego object, from sensor data S, and the generation module 3 is set up to generate a representation of the determined course over time. The system 200 for training the artificial neural network 1 has the generation module 3 and an interface 4, the interface 4 being set up to supply the generated representation together with information about a dynamic spatial scenario to the artificial neural network 1.
Die Sensordaten S werden beispielsweise von Umgebungssensoren eines Ego- Fahrzeugs beim Erfassen eines Verkehrsszenarios erzeugt und charakterisieren etwa die Anzahl benachbarter Fahrzeuge, die relative Anordnung, insbesondere die relativen Abstände, der anderen Fahrzeuge zum Ego-Fahrzeug, die Geschwindigkeit des Ego- Fahrzeugs, und/oder dergleichen. Aus diesen Sensordaten S kann das Ermittlungsmo- dul 2 in bevorzugter weise ermitteln, wie breit wenigstens ein von den anderen Fahrzeu- gen verdeckter Winkelsektor im Sichtfeld des Ego-Fahrzeugs ist und in welcher Lage dieser Winkelsektor, beispielsweise relativ zur Fahrtrichtung des Ego-Fahrzeugs, ange- ordnet ist. The sensor data S are generated, for example, by environmental sensors of a ego vehicle when recording a traffic scenario and characterize, for example, the number of neighboring vehicles, the relative arrangement, in particular the relative distances, of the other vehicles from the ego vehicle, the speed of the ego vehicle, and / or similar. From these sensor data S, the determination module 2 can preferably determine how wide at least one angle sector hidden by the other vehicles is in the field of vision of the ego vehicle and in what position this angle sector, for example relative to the direction of travel of the ego vehicle, is arranged.
Da die Umgebungssensoren das Umfeld des Ego-Fahrzeugs vorzugsweise kontinuier- lich, zumindest aber mit hoher Frequenz, erfassen, kann aus den resultierenden Sensor- daten S auch der zeitliche Verlauf des Winkelsektors, insbesondere eine Änderung sei- ner Breite und/oder seiner Lage aus der Perspektive des Ego-Fahrzeugs ermittelt wer- den. Der zeitliche Verlauf kann vom Erzeugungsmodul 3 verwendet werden, um eine graphische Darstellung, die das Verkehrsszenario in einer abstrakten Weise abbildet, zu erzeugen. Mit anderen Worten ist das Erzeugungsmodul 3 dazu eingerichtet, die in den Sensordaten S enthaltene Information bezüglich des Verkehrsszenarios in der Darstel- lung, insbesondere in komprimierter Form, zu encodieren. Vorzugsweise handelt es sich bei den Sensordaten S in Bezug auf dynamische räumli- che Szenarien klassifizierte Sensordaten, d.h. die Sensordaten S sind beispielsweise einer von mehreren Klassen von Verkehrsszenarien, etwa Überholmanövern oder Spur- wechselmanövern, zugeordnet. Diese Klassifizierung kann beispielsweise manuell, etwa durch Sichten eines Bilddatenstroms, erfolgt sein. Die auf Grundlage des ermittelten zeit- lichen Verlaufs des Winkelsektors erzeugte Darstellung kann daher mit einer Information über das dynamische räumliche Szenario von der Schnittstelle 4 an das künstliche neu- ronale Netz 1 übermittelt werden. Since the environment sensors preferably record the surroundings of the ego vehicle continuously, at least with a high frequency, the resulting sensor data S can also be used to determine the time profile of the angle sector, in particular a change in its width and / or its position from the perspective of the ego vehicle. The time course can be used by the generation module 3 to generate a graphical representation that depicts the traffic scenario in an abstract manner. In other words, the generation module 3 is set up to encode the information contained in the sensor data S regarding the traffic scenario in the representation, in particular in compressed form. The sensor data S are preferably sensor data classified in relation to dynamic spatial scenarios, ie the sensor data S are assigned, for example, to one of several classes of traffic scenarios, such as overtaking maneuvers or lane change maneuvers. This classification can be done manually, for example, by viewing an image data stream. The representation generated on the basis of the determined time profile of the angle sector can therefore be transmitted from the interface 4 to the artificial neural network 1 with information about the dynamic spatial scenario.
Das künstliche neuronale Netz 1 ist vorzugsweise dazu eingerichtet, jeweils wenigstens ein Muster in allen Darstellungen, die der gleichen Verkehrsszenarioklasse zugeordnet sind, zu erkennen. Anhand eines solchen erkannten Musters kann eine Schablone defi- niert werden, die ein bekanntes Verkehrsszenario charakterisiert. Die derart definierten Schablonen können in einer Datenbank 5 zur weiteren Verwendung, etwa zur Auswer- tung von im regulären Betrieb eines Fahrzeugs erzeugten Sensordaten, gespeichert werden. The artificial neural network 1 is preferably set up to recognize at least one pattern in each case in all representations which are assigned to the same traffic scenario class. On the basis of such a recognized pattern, a template can be defined that characterizes a known traffic scenario. The templates defined in this way can be stored in a database 5 for further use, for example for evaluating sensor data generated in the normal operation of a vehicle.
Fig. 2 zeigt eine bevorzugte Ausführungsform eines Systems 300 zum Analysieren von Sensordaten S, die geeignet sind, ein dynamisches räumliches Szenario in Bezug auf ein Ego-Objekt und wenigstens ein anderes Objekt zu charakterisieren. Das System 300 weist ein Erzeugungsmodul 3 auf, welches dazu eingerichtet ist, auf Grundlage der Sen- sordaten S eine Darstellung eines zeitlichen Verlaufs eines Winkelsektors, welcher aus der Perspektive das Ego-Objekts durch ein anderes Objekt abgedeckt ist, zu erzeugen. Das System 300 weist zudem ein Vergleichsmodul 6 auf, welches dazu eingerichtet ist, die erzeugte Darstellung mit wenigstens einer vordefinierten Schablone eines bekannten dynamischen räumlichen Szenarios zu vergleichen. Dazu hat das Vergleichsmodul 6 vorzugsweise Zugriff auf eine Datenbank 5, in der wenigstens eine vordefinierte Schab- lone gespeichert ist. FIG. 2 shows a preferred embodiment of a system 300 for analyzing sensor data S which are suitable for characterizing a dynamic spatial scenario in relation to an ego object and at least one other object. The system 300 has a generation module 3, which is set up to generate, based on the sensor data S, a representation of a temporal profile of an angle sector, which is covered by another object from the perspective of the ego object. The system 300 also has a comparison module 6, which is set up to compare the generated representation with at least one predefined template of a known dynamic spatial scenario. For this purpose, the comparison module 6 preferably has access to a database 5, in which at least one predefined template is stored.
Das Ergebnis des Vergleichs wird vom Vergleichsmodul 6 in bevorzugter Weise ausge- geben und kann etwa zum Steuern eines Fahrerassistenzsystems, mit dem ein Ego- Fahrzeug ausgestattet ist, verwendet werden. Wird zwischen der erzeugten Darstellung und der wenigstens einen vordefinierten Schablone beispielsweise wenigstens ein vor- gegebenes Maß an Übereinstimmung festgestellt, etwa durch Analyse eines beim Ver- gleichen erzeugten Ähnlichkeitsmaßes, kann darauf geschlossen werden, dass das be- kannte Szenario vorliegt, und das Vergleichsmodul 6 kann als Ausgangssignal etwa eine Szenarioklasse ausgeben. Alternativ oder zusätzlich kann auch der Beginn und/oder das Ende eines identifizierten Fahrmanövers ausgegeben, insbesondere signalisiert, werden. The result of the comparison is output by the comparison module 6 in a preferred manner and can be used, for example, to control a driver assistance system with which an ego vehicle is equipped. If, for example, at least a predetermined degree of agreement is ascertained between the generated representation and the at least one predefined template, for example by analyzing a same generated measure of similarity, it can be concluded that the known scenario is present, and the comparison module 6 can output approximately one scenario class as the output signal. Alternatively or additionally, the start and / or the end of an identified driving maneuver can also be output, in particular signaled.
Fig. 3 zeigt ein Beispiel für das Ermitteln eines Winkelsektors F in einem dynamischen räumlichen Szenario 10, bei dem sich ein Ego-Objekt 1 1 entlang einer Bewegungsrich- tung, hier entlang der x-Achse eines Koordinatensystems, bewegt und von anderen Ob- jekten 12 umgeben ist. Im vorliegenden Beispiel handelt es sich bei dem räumlichen Szenario 10 um einen Verkehrsszenario mit einem Ego-Fahrzeug 1 1a, das sich in Fahrt- richtung auf einer mittleren Fahrspur bewegt und von anderen Fahrzeugen 12a, 12b auf benachbarten Fahrspuren umgeben ist. FIG. 3 shows an example for the determination of an angle sector F in a dynamic spatial scenario 10, in which an ego object 11 moves along a direction of movement, here along the x-axis of a coordinate system, and from other objects 12 is surrounded. In the present example, the spatial scenario 10 is a traffic scenario with an ego vehicle 1 1a, which is moving in the direction of travel in a middle lane and is surrounded by other vehicles 12a, 12b in adjacent lanes.
Fig. 3A zeigt das Verkehrsszenario aus der Vogelperspektive, wobei in der gezeigten Darstellung eine zeitliche Abfolge von räumlichen Szenen zusammengefasst ist. Zu ver- schiedenen Zeitpunkten befinden sich die anderen Fahrzeuge 12a, 12b in verschiedenen Positionen relativ zum Ego-Fahrzeug 1 1a, die durch unterschiedliche Füllungen der die Fahrzeuge 12a, 12b repräsentierenden Rechtecke angedeutet sind. Dabei korrespon- diert eine dichtere Füllung mit einer zeitlich weiter zurückliegenden Position. Wie in die- ser Darstellung gut zu erkennen ist, führt ein erstes Fahrzeug 12a einen Spurwechsel von einer äußeren Fahrspur auf die vom Ego-Fahrzeug 1 1a benutzte Fahrspur aus und schert dabei vor dem Ego-Fahrzeug 1 1a ein. Ein zweites Fahrzeug 12b, das sich zu- nächst etwa auf gleicher Höhe mit dem Ego-Fahrzeug 1 1 a in Bezug auf die Bewegungs- richtung befindet, fällt im zeitlichen Verlauf nach hinten ab. Dadurch, dass die Positions- änderung des zweiten Fahrzeugs 12b verhältnismäßig klein ist, überlappen sich die vom zweiten Fahrzeug 12b zu den unterschiedlichen Zeitpunkten eingenommenen Positionen in dieser Darstellung. FIG. 3A shows the traffic scenario from a bird's eye view, a temporal sequence of spatial scenes being summarized in the illustration shown. At different times, the other vehicles 12a, 12b are in different positions relative to the ego vehicle 1 1a, which are indicated by different fillings of the rectangles representing the vehicles 12a, 12b. A denser filling corresponds to a position further back in time. As can be clearly seen in this illustration, a first vehicle 12a performs a lane change from an outer lane to the lane used by the ego vehicle 1 1a and in doing so, it turns in front of the ego vehicle 1 1a. A second vehicle 12b, which is initially at approximately the same level as the ego vehicle 1 1 a with respect to the direction of movement, falls backwards over time. Due to the fact that the change in position of the second vehicle 12b is relatively small, the positions assumed by the second vehicle 12b at different times overlap in this illustration.
Um eine alternative Darstellung des Verkehrsszenarios zu erzeugen, kann für jedes der beiden Fahrzeuge 12a, 12b ein Wnkelsektor ermittelt werden, der denjenigen Bereich im Sichtfeld des Ego-Fahrzeugs 11 a angibt, der vom jeweiligen Fahrzeug 12a, 12b ab- gedeckt wird. Dies ist in Fig. 3B beispielhaft für das erste Fahrzeug 12a gezeigt. Die sich in Bezug auf die Perspektive des Ego-Fahrzeugs 1 1 a ergebende Kontur 13 des ersten Fahrzeugs 12a ist als durchgezogene Linie angedeutet und spannt den Winkelsektor F auf. Eine Lage cp des Winkelsektors F, und damit auch des ersten Fahrzeugs 12a, aus Sicht des Ego-Fahrzeugs 1 1 a kann dabei relativ zu einer vorgegebenen Richtung, bei- spielsweise der Bewegungsrichtung, angegeben werden. Verschiebt sich die Position des Fahrzeugs 12a relativ zum Ego-Fahrzeug 1 1 a, kann sich sowohl die Breite des Win- kelsektors F als auch seine Lage cp ändern. In order to generate an alternative representation of the traffic scenario, an angle sector can be determined for each of the two vehicles 12a, 12b, which indicates the area in the field of vision of the ego vehicle 11a that is covered by the respective vehicle 12a, 12b. This is shown in FIG. 3B as an example for the first vehicle 12a. The contour 13 of the first vehicle 12a that results in relation to the perspective of the ego vehicle 1 1 a is indicated as a solid line and spans the angle sector F. A position cp of the angle sector F, and thus also of the first vehicle 12a View of the ego vehicle 1 1 a can be specified relative to a predetermined direction, for example the direction of movement. If the position of the vehicle 12a shifts relative to the ego vehicle 11a, both the width of the angle sector F and its position cp can change.
Dies ist in Fig. 3C gezeigt. Das dort abgebildete Balkendiagramm, in dem der inverse, in Fig. 3A als schwarzer Pfeil angedeutete Abstand d zwischen dem Egofahrzeug 1 1a und den anderen Fahrzeugen 12a, 12b gegen die Lage cp des Winkelsektors F aufgetragen ist, bildet eine abstrakte Darstellung des in Fig. 3A gezeigten Verkehrsszenarios. Die drei rechts liegenden Balken korrespondieren mit dem vom ersten Fahrzeug 12a abgedeck- ten Winkelbereich F, während die drei links liegenden Balken mit dem vom zweiten Fahrzeug 12b abgedeckten Winkelbereich F korrespondieren. Die unterschiedlichen Zeitpunkte sind, wie auch in Fig. 3A, durch die entsprechende Füllung der Balken ange- deutet. This is shown in Figure 3C. The bar diagram depicted there, in which the inverse distance d, indicated as a black arrow in FIG. 3A, between the ego vehicle 1 1a and the other vehicles 12a, 12b is plotted against the position cp of the angle sector F, forms an abstract representation of the one shown in FIG. 3A traffic scenarios shown. The three bars on the right correspond to the angular range F covered by the first vehicle 12a, while the three bars on the left correspond to the angular range F covered by the second vehicle 12b. As in FIG. 3A, the different times are indicated by the corresponding filling of the bars.
Demnach wandert der vom ersten Fahrzeug 12a abgedeckte Winkelbereich F beim Ein- scheren vor dem Ego-Fahrzeug 11 a in Richtung einer 0°-Lage, wobei die 0°-Lage des Winkelsektors F mit einer Position vor dem Ego-Fahrzeug 1 1 a korrespondiert. In dem Maße, wie der Abstand d zwischen dem ersten Fahrzeug 12a und dem Ego- Fahrzeug 1 1 a dabei wie in Fig. 3A gezeigt abnimmt, nimmt auch die Breite des vom ers- ten Fahrzeug 12a abgedeckten Winkelbereichs F zu. Neben der Breite des Winkelbe- reichs F ist der Abstand d zwischen dem ersten Fahrzeug 12a und dem Ego- Fahrzeug 1 1 a auch in der Höhe der Balken encodiert, die mit fortschreitender Zeit zu- nimmt. Accordingly, the angular range F covered by the first vehicle 12a moves in the direction of a 0 ° position when it is reeved in front of the ego vehicle 11a, the 0 ° position of the angle sector F corresponding to a position in front of the ego vehicle 11a . As the distance d between the first vehicle 12a and the ego vehicle 11a decreases as shown in FIG. 3A, the width of the angular range F covered by the first vehicle 12a also increases. In addition to the width of the angular range F, the distance d between the first vehicle 12a and the ego vehicle 11a is also encoded in the height of the bars, which increases with the passage of time.
Der vom zweiten Fahrzeug 12b abgedeckte Winkelbereich F entfernt sich dagegen von der 0°-Lage in dem Maße, wie das zweite Fahrzeug 12b hinter dem Ego-Fahrzeug 1 1a zurückfällt. Da sich hierbei der Abstand zwischen dem zweiten Fahrzeug 12b und dem Ego Fahrzeug 1 1a vergrößert, nimmt auch die Höhe der Balken sowie deren Breite ab. By contrast, the angular range F covered by the second vehicle 12b moves away from the 0 ° position to the extent that the second vehicle 12b falls behind the ego vehicle 1 1a. Since the distance between the second vehicle 12b and the ego vehicle 1 1a increases, the height of the bars and their width also decrease.
Fig. 4 zeigt ein erstes Beispiel zur Erläuterung des Zusammenhangs zwischen einem bevorzugten Ausführungsbeispiel einer erfindungsgemäßen Darstellung 20 und einem korrespondierenden dynamischen räumlichen Szenario 10. Dazu zeigt Fig. 4A die Dar- stellung 20 zeitlicher Verläufe von Winkelsektoren FQ, F^ FO, die von anderen Objek- ten aus der Perspektive eines Ego-Objekts, etwa eines Ego-Fahrzeugs 1 1a, abgedeckt werden. In der Darstellung 20 ist die Zeit t gegen die Lage cp der Winkelsektoren Oa, Ob, Oc aufgetragen, wobei die 0°-Lage mit einer Position vor dem Ego-Objekt korrespon- diert. FIG. 4 shows a first example to explain the relationship between a preferred exemplary embodiment of a representation 20 according to the invention and a corresponding dynamic spatial scenario 10. To this end, FIG. 4A shows the representation 20 of time profiles of angle sectors FQ, F ^ FO, that of others Objects from the perspective of an ego object, such as an ego vehicle 1 1a, are covered become. In the illustration 20, the time t is plotted against the position cp of the angle sectors Oa, Ob, Oc, the 0 ° position corresponding to a position in front of the ego object.
Die zeitlichen Verläufe der Winkelsektoren Oa, Ob, Oc werden als Linien dargestellt, deren Breite mit dem Abstand des jeweiligen Objekts zum Ego-Objekt korrespondiert. Ein erstes Objekt, etwa ein erstes Fahrzeug 12a, befindet sich demnach zu Beginn bei t = 0 in einiger Entfernung vor dem Ego-Objekt. Ein zweites Objekt, etwa ein zweites Fahrzeug 12b, befindet sich zu Beginn dagegen näher am Ego-Objekt, allerdings in einer Position seitlich vom Ego-Objekt. Bei etwa t = 40 ändert das zweite Objekt seine Position und schiebt sich zwischen das Ego-Objekt und das erste Objekt. Der zeitliche Verlauf des Winkelsektors Ob, der vom zweiten Objekt abgedeckt wird, überlappt ab diesem Zeitpunkt den Verlauf des Wnkelsektors Oa, der vom ersten Objekt abgedeckt wird. The temporal courses of the angle sectors Oa, Ob, Oc are represented as lines, the width of which corresponds to the distance of the respective object from the ego object. A first object, for example a first vehicle 12a, is accordingly at the beginning at t = 0 some distance in front of the ego object. By contrast, a second object, for example a second vehicle 12b, is initially closer to the ego object, but in a position to the side of the ego object. At about t = 40, the second object changes its position and moves between the ego object and the first object. From this point in time, the time profile of the angle sector Ob, which is covered by the second object, overlaps the profile of the angle sector Oa, which is covered by the first object.
Bei etwa t = 70 wird ein weiterer Winkelsektor Oc von einem dritten Objekt, etwa einem dritten Fahrzeug 12c, abgedeckt. Das dritte Objekt befindet sich seitlich vom Ego-Objekt, und zwar auf einer Seite des Ego-Objekts, die derjenigen Seite, auf der sich das zweite Objekt bei t = 0 befand, gegenüberliegt. Die Lage cp des vom dritten Objekt abgedeckten Winkelsektors Oc verschiebt sich darauffolgend in Richtung der 0°-Lage. Dieser zeitliche Verlauf kann beispielsweise durch eine Bewegung des dritten Objekts parallel zur Bewe- gungsrichtung des Ego-Objekts verursacht werden, wobei der Abstand des dritten Ob- jekts zum Ego-Objekt zunimmt. At about t = 70, another angle sector Oc is covered by a third object, such as a third vehicle 12c. The third object is located to the side of the ego object, on a side of the ego object that is opposite to the side on which the second object was located at t = 0. The position cp of the angle sector Oc covered by the third object subsequently shifts in the direction of the 0 ° position. This temporal course can be caused, for example, by a movement of the third object parallel to the direction of movement of the ego object, the distance between the third object and the ego object increasing.
Derartige zeitliche Verläufe der Winkelsektoren Oa, Ob, Oc können beispielsweise cha- rakteristisch für das in Fig. 4B gezeigte räumliche dynamisches Szenario 10, hier ein Verkehrsszenario, sein. Die zeitliche Entwicklung ist in Fig. 4B durch mit Punkten ge- kennzeichnete Trajektorien der Fahrzeuge auf der Fahrbahn angedeutet. Such temporal profiles of the angle sectors Oa, Ob, Oc can, for example, be characteristic of the spatial dynamic scenario 10 shown in FIG. 4B, here a traffic scenario. The development over time is indicated in FIG. 4B by trajectories of the vehicles on the carriageway marked with dots.
Zu Beginn befindet sich das Ego-Fahrzeug 1 1a an der Position (x = 0, y = 0), und das erste Fahrzeug 12a befindet sich etwa an der Position (x = 60, y = 0). Demnach fährt das erste Fahrzeug 12a dem Ego-Fahrzeug 1 1 a auf einer mittleren Fahrspur etwa im Ab- stand Dc = 60 voraus. Das zweite Fahrzeug 12b befindet sich zu Beginn etwa an der Position (x = 45, y = -4), wobei es demnach auf einer Nachbarspur, d.h. bezüglich des Ego-Fahrzeugs 11 a seitlich versetzt, zwischen dem Ego-Fahrzeug 1 1a und dem ersten Fahrzeug 12a fährt. Im weiteren zeitlichen Verlauf schert das zweite Fahrzeug 12b zwischen das Ego- Fahrzeug 11 a und das erste Fahrzeug 12a auf der mittleren Fahrspur ein. Die Einscher- bewegung des zweiten Fahrzeugs 12b beginnt etwa an der Position (x = 100, y = -4) und endet etwa an der Position (x = 150, y = 0). Nach dem einscheren des weiteren Fahr- zeugs 12b bewegen sich das Ego-Fahrzeug 1 1a, das erste Fahrzeug 12a und das zwei- te Fahrzeug 12b gemeinsam auf der mittleren Fahrspur weiter. Dadurch, dass hierbei das zweite Fahrzeug 12b aus der Perspektive des Ego-Fahrzeugs 1 1 a nun die Sicht auf das erste Fahrzeug 12a verdeckt, ist in der korrespondierenden Darstellung 20 in Fig. 4A nur noch eine Linie in der 0°-Lage sichtbar. Initially, the ego vehicle 1 1a is at the position (x = 0, y = 0), and the first vehicle 12a is approximately at the position (x = 60, y = 0). Accordingly, the first vehicle 12a drives the ego vehicle 11a in a middle lane approximately at a distance Dc = 60. At the beginning, the second vehicle 12b is approximately at the position (x = 45, y = -4), it accordingly being in a neighboring lane, ie laterally offset with respect to the ego vehicle 11a, between the ego vehicle 1 1a and the first vehicle 12a drives. In the further course of time, the second vehicle 12b reevers between the ego vehicle 11a and the first vehicle 12a in the middle lane. The cutting-in movement of the second vehicle 12b begins approximately at the position (x = 100, y = -4) and ends approximately at the position (x = 150, y = 0). After the further vehicle 12b has been cut in, the ego vehicle 1 1a, the first vehicle 12a and the second vehicle 12b continue to move together in the middle lane. Because the second vehicle 12b now obscures the view of the first vehicle 12a from the perspective of the ego vehicle 1 1a, only one line is visible in the corresponding representation 20 in FIG. 4A in the 0 ° position.
Das dritte Fahrzeug 12c befindet sich zu Beginn hinter dem Ego-Fahrzeug 1 1a, so dass es, etwa durch Umgebungssensoren des Ego-Fahrzeugs 1 1a, zunächst nicht erfasst wird. Das dritte Fahrzeug 12c bewegt sich jedoch mit einer höheren Geschwindigkeit als das Ego-Fahrzeug 1 1 a, so dass es das Ego-Fahrzeug 1 1 a im weiteren Verlauf auf einer weiteren Nachbarspur bei y = 4 überholt. Erst ab dem Überholzeitpunkt wird das dritte Fahrzeug 12c für das Ego-Fahrzeug 11 a sichtbar, so dass der zeitliche Verlauf des vom dritten Fahrzeug 12c abgedeckten Winkelbereichs <t>c in der korrespondierenden Dar- stellung 20 in Fig. 4A erst ab diesem Zeitpunkt beginnt. The third vehicle 12c is initially located behind the ego vehicle 1 1a, so that it is initially not detected, for example by environmental sensors of the ego vehicle 1 1a. However, the third vehicle 12c moves at a higher speed than the ego vehicle 1 1 a, so that it overtakes the ego vehicle 1 1 a in the further course on a further neighboring lane at y = 4. Only from the time of overtaking does the third vehicle 12c become visible to the first-person vehicle 11a, so that the time profile of the angular range <t> c covered by the third vehicle 12c in the corresponding illustration 20 in FIG. 4A only begins from this time .
Die durch die zeitlichen Verläufe der Winkelsektoren entstandene Darstellung 20 in Fig. 4A weist ein für das beschriebene räumliche dynamische Szenario 10 charakteristi- sches Muster auf. Werden auf der Grundlage von Sensordaten, die wiederholt beim Er- fassen eines solchen Szenarios gesammelt wurden, viele solcher Darstellungen erzeugt, kann ein künstliches neuronales Netz dieses Muster erlernen bzw. auf das Erkennen dieses Musters trainiert werden. Im regulären Betrieb eines Fahrzeugs kann dann aus den dabei erzeugten Sensordaten im Wesentlichen in Echtzeit der zeitliche Verlauf von Winkelsektoren dargestellt und von dem trainierten künstlichen neuronalen Netz analy- siert, insbesondere mit dem erlernten Muster verglichen, werden. Dadurch wird vor- zugsweise ermittelt, ob bzw. zu welchem Zeitpunkt ein bekanntes Verkehrsszenario vor- Negt. The representation 20 in FIG. 4A created by the time profiles of the angle sectors has a pattern which is characteristic of the spatial dynamic scenario 10 described. If many such representations are generated on the basis of sensor data that were repeatedly collected when such a scenario was recorded, an artificial neural network can learn this pattern or can be trained to recognize this pattern. During regular operation of a vehicle, the temporal course of angle sectors can then be represented in real time from the sensor data generated and analyzed by the trained artificial neural network, in particular compared with the learned pattern. This preferably determines whether or at what point in time a known traffic scenario is pending.
In Fig. 4C ist dazu das Ergebnis eines solchen Vergleichs, etwa zwischen der in Fig. 4A gezeigten Darstellung 20 und einer entsprechenden Schablone, gezeigt, wobei ein Aus- gangssignal a gegen die Zeit t aufgetragen ist. Etwa zum Zeitpunkt t = 30 springt das Ausgangssignal a auf den Wert 6, wodurch das Vorliegen des bekannten Verkehrssze- narios, in diesem Fall das Einscheren eines zweiten Fahrzeugs 12b, signalisiert wird. Etwa zum Zeitpunkt t = 85 fällt das Ausgangssignal a zurück auf den Wert null, wodurch das Ende des Einschermanövers signalisiert wird. 4C shows the result of such a comparison, for example between the illustration 20 shown in FIG. 4A and a corresponding template, an output signal a being plotted against time t. This jumps around time t = 30 Output signal a to the value 6, which signals the presence of the known traffic scenario, in this case the reeving of a second vehicle 12b. Around time t = 85, the output signal a falls back to zero, which signals the end of the single maneuver.
Zusätzlich zu dem Beginn und der Dauer des Fahrmanövers kann durch den Wert des Ausgangssignals a auch die Klassifizierung des Verkehrsszenarios ausgegeben werden. In einem anderen, nicht gezeigten Beispiel könnte der Vergleich der erzeugten Darstel- lung mit verschiedenen Schablonen etwa die höchste Übereinstimmung mit einer Schab- lone, die einem Ausschermanöver zugeordnet ist, zeigen und das Ausgangssignal a ent- sprechend einen anderen Wert annehmen. In addition to the start and duration of the driving maneuver, the value of the output signal a can also be used to output the classification of the traffic scenario. In another example, not shown, the comparison of the generated representation with different templates could show the greatest agreement with a template that is assigned to a swinging-out maneuver, and the output signal a could assume a different value accordingly.
Fig. 5 zeigt ein zweites Beispiel zur Erläuterung des Zusammenhangs zwischen einem bevorzugten Ausführungsbeispiel einer erfindungsgemäßen Darstellung 20 und einem korrespondierenden dynamischen räumlichen Szenario 10. Dazu zeigt Fig. 5A eine Szene aus der dem dynamischen räumlichen Szenario 10 entsprechenden Verkehrssi- tuation, in diesem Fall ein durch den Pfeil angedeutetes Einscheren eines Ego- Fahrzeugs 1 1a auf eine Fahrspur, auf der bereits ein anderes erstes Fahrzeug 12a fährt. Neben dem ersten Fahrzeug 12a fährt ein weiteres, zweites Fahrzeug 12b auf einer wei- teren Fahrspur. FIG. 5 shows a second example to explain the relationship between a preferred exemplary embodiment of an illustration 20 according to the invention and a corresponding dynamic spatial scenario 10. To this end, FIG. 5A shows a scene from the traffic situation corresponding to the dynamic spatial scenario 10, in this case one by the arrow indicated, ego vehicle 1 1a shears into a lane in which another first vehicle 12a is already driving. In addition to the first vehicle 12a, a further, second vehicle 12b is traveling in a further lane.
Die zeitliche Entwicklung des dynamischen räumlichen Szenarios 10 ist in Fig. 5B durch anhand von Punkten gekennzeichnete Trajektorien der Fahrzeuge 1 1 a, 12a, 12b ge- zeigt. Zu Beginn befindet sich das Ego-Fahrzeug 1 1 a etwa an der Position (x = 0, y = 2,5), und das erste Fahrzeug 12a fährt dem Ego-Fahrzeug 1 1 a etwa an der Position (x = 35, y = 0) auf einer mittleren Fahrspur voraus, d.h. etwa im Abstand Dc = 35. Das zweite Fahrzeug 12b befindet sich zu Beginn etwa an der Position (x = 25, y = -2,5). The development over time of the dynamic spatial scenario 10 is shown in FIG. 5B by trajectories of the vehicles 11a, 12a, 12b, identified by points. At the beginning, the ego vehicle 1 1 a is approximately at the position (x = 0, y = 2.5), and the first vehicle 12a drives the ego vehicle 1 1 a approximately at the position (x = 35, y = 0) ahead in a middle lane, ie approximately at a distance Dc = 35. At the beginning, the second vehicle 12b is approximately at the position (x = 25, y = -2.5).
Im weiteren zeitlichen Verlauf beginnt das Ego-Fahrzeug 1 1 a etwa an der Position (x = 60, y = 2) mit dem Einscheren auf die mittlere Fahrspur und beendet das Fahrma- növer etwa an der Position (x = 100, y = 0). Die anderen beiden Fahrzeuge 12a, 12b fahren dabei mit etwas höherer Geschwindigkeit weiter geradeaus, so dass das Ego- Fahrzeug 11 a langsam weiter zurückfällt. In Fig. 5C sind die zeitlichen Verläufe der Winkelsektoren Oa, Ob, die jeweils vom ersten Fahrzeug 12a bzw. zweiten Fahrzeug 12b aus der Perspektive des Ego-Fahrzeugs 1 1a abgedeckt werden, in einer Darstellung 20 gezeigt. Dabei ist die Zeit t gegen eine La- ge f der Winkelsektoren Oa, Ob aufgetragen. Eine in Fig. 5c eingezeichnete 0°-Lage korrespondiert mit einer Position vor dem Ego-Fahrzeug 1 1 a. In the further course of time, the ego vehicle 1 1 a begins approximately at the position (x = 60, y = 2) by reeving into the middle lane and ends the driving maneuver approximately at the position (x = 100, y = 0) ). The other two vehicles 12a, 12b continue to drive straight ahead at a somewhat higher speed, so that the ego vehicle 11a slowly falls behind further. 5C shows the temporal profiles of the angle sectors Oa, Ob, which are covered by the first vehicle 12a and the second vehicle 12b from the perspective of the ego vehicle 1 1a, in a representation 20. The time t is plotted against a position f of the angle sectors Oa, Ob. A 0 ° position shown in FIG. 5c corresponds to a position in front of the ego vehicle 1 1 a.
Im zeitlichen Verlauf verschieben sich die Winkelsektoren Oa, Ob in Richtung der 0°- Lage, da sich das erste und zweite Fahrzeug 12a, 12b wie vorangehend beschrieben aufgrund ihrer höheren Geschwindigkeit vom Ego-Fahrzeug 1 1 a entfernen. Zum Zeit- punkt des Einscherens des Ego-Fahrzeugs 1 1a, hier etwa zum Zeitpunkt t = 30, krüm- men sich die zeitlichen Verläufe der Winkelsektoren Oa, Ob zusätzlich in Richtung der 0°-Lage. Der durch das erste Fahrzeug 12a abgedeckte Winkelsektor Oa verläuft im Folgenden entlang der 0°-Lage, da wie in Fig. 5A und 5B gezeigt das erste Fahr- zeug 12a dem Ego-Fahrzeug 11 a auf derselben Fahrspur vorausfährt. In the course of time, the angle sectors Oa, Ob shift in the direction of the 0 ° position, since the first and second vehicles 12a, 12b, as described above, move away from the ego vehicle 11a due to their higher speed. At the time the ego vehicle 1 1a is cut in, here at time t = 30, the time profiles of the angle sectors Oa curve, whether in the direction of the 0 ° position. The angle sector Oa covered by the first vehicle 12a subsequently runs along the 0 ° position, since, as shown in FIGS. 5A and 5B, the first vehicle 12a drives the ego vehicle 11a in the same lane.
Aufgrund des entstandenen Musters können zunächst nur Aussagen über die relative Bewegung des Ego-Fahrzeugs 1 1a bezüglich des ersten und zweiten Fahrzeugs 12a, 12b getroffen werden, d.h. es geht aus der Form des zeitlichen Verlaufs der Winkelsek- toren Oa, Ob zunächst nicht eindeutig hervor, ob das Ego-Fahrzeug 1 1 a auf die mittlere Fahrspur wechselt oder ob das erste und das zweite Fahrzeug 12a, 12b, insbesondere im Wesentlichen zeitgleich, jeweils einen Fahrspurwechsel durchführen, wobei das erste Fahrzeug 12a auf die Fahrspur des Ego-Fahrzeugs 1 1 a und das zweite Fahrzeug 12b auf die zuvor vom ersten Fahrzeug 12a benutzte Fahrspur einschwenkt. On the basis of the resulting pattern, only statements about the relative movement of the ego vehicle 1 1a with respect to the first and second vehicles 12a, 12b can be made, i.e. it is evident from the shape of the temporal course of the angle sectors Oa, whether at first it is not clear whether the ego vehicle 1 1 a is changing to the middle lane or whether the first and the second vehicle 12 a, 12 b, in particular essentially at the same time, each carry out a lane change, the first vehicle 12a swiveling onto the lane of the first-person vehicle 1 a and the second vehicle 12b onto the lane previously used by the first vehicle 12a.
Um diese beiden Fälle voneinander unterscheiden zu können, zeigt die Darstellung 20 neben den Winkelsektoren Oa, Ob zusätzlich einen Wert, der charakteristisch für den, insbesondere transversalen, Abstand zwischen dem Ego-Fahrzeug 1 1 a und dem jeweils anderen Fahrzeug 12a, 12b und/oder für die, insbesondere transversale, Geschwindig- keit des Ego-Fahrzeugs 11 a zur Zeit t ist. Der transversale Abstand oder die transversale Geschwindigkeit beziehen sich hierbei auf eine transversale Komponente des Abstands bzw. der Geschwindigkeit, d.h. der y-Komponenten in der in Fig. 5B gezeigten Darstel- lung. In order to be able to distinguish these two cases from one another, the illustration 20 shows, in addition to the angle sectors Oa, Ob additionally a value which is characteristic of the, in particular transverse, distance between the ego vehicle 1 1 a and the other vehicle 12 a, 12 b and / or for the, in particular transverse, speed of the ego vehicle 11 a at time t. The transverse distance or the transverse speed refer here to a transverse component of the distance or the speed, i.e. of the y components in the illustration shown in FIG. 5B.
Der für den Abstand und/oder die Geschwindigkeit charakteristische Wert ist in der Dar- stellung 20 als eine durch die Tönung angedeutete Farbgebung des zeitlichen Verlaufs der Winkelsektoren gezeigt. Dabei korrespondiert eine dunkle Tönung beispielsweise mit einer hohen transversalen Geschwindigkeit des Ego-Fahrzeugs 1 1 a. Somit kann der Darstellung 20 in Fig. 5C entnommen werden, dass das Ego-Fahrzeug etwa zum Zeit- punkt t = 20 eine Transversalbewegung, d.h. eine Bewegung senkrecht zum Fahrspur- verlauf, beginnt, wobei das Ego-Fahrzeug 1 1 a bei etwa t = 30 die höchste Transversal- geschwindigkeit erreicht, und die Transversalbewegung bei etwa t = 40 beendet. The value which is characteristic of the distance and / or the speed is shown in the illustration 20 as a coloration of the time profile indicated by the tint of the angular sectors shown. A dark tint corresponds, for example, to a high transverse speed of the ego vehicle 1 1 a. It can thus be seen from the illustration 20 in FIG. 5C that the ego vehicle begins a transverse movement, ie a movement perpendicular to the lane course, at about the time t = 20, the ego vehicle 1 a at approximately t = 30 reaches the highest transverse speed and the transverse movement ends at approximately t = 40.
Da das Ego-Fahrzeug 11 a bei einem durch eines der anderen Fahrzeuge 12a, 12b durchgeführten Spurwechsel seine (transversale) Geschwindigkeit nicht ändert, kann im vorliegenden Fall auf ein Einschwenken des Ego-Fahrzeugs 1 1 a auf die durch das erste Fahrzeug 12a genutzte Fahrspur geschlossen werden. Since the ego vehicle 11a does not change its (transversal) speed when a lane change is carried out by one of the other vehicles 12a, 12b, in the present case the ego vehicle 11a can be swiveled into the lane used by the first vehicle 12a getting closed.
Fig. 6 zeigt jeweils ein bevorzugtes Ausführungsbeispiel eines erfindungsgemäßen Ver- fahrens V1 zur Datenaufbereitung und eines erfindungsgemäßen Verfahrens V2 zum Trainieren eines künstlichen neuronalen Netzes. 6 each shows a preferred exemplary embodiment of a method V1 according to the invention for data processing and a method V2 according to the invention for training an artificial neural network.
In einem Verfahrensschritt S1 werden Sensordaten erzeugt, etwa durch sensorisches Erfassen des Umfelds eines Ego-Objekts, und klassifiziert, d.h. verschiedenen dynami- schen räumlichen Szenarien zugeordnet. Die Klassifizierung kann beispielsweise manu- ell durchgeführt werden, etwa durch Auswertung eines Bilddatenstroms. Alternativ kön- nen die Sensordaten auch automatisch klassifiziert werden, insbesondere wenn es sich um Sensordaten handelt, die von einem Simulator bei der Simulation verschiedener dy- namischer räumlicher Szenarien erzeugt wurden. In a method step S1, sensor data are generated, for example by sensory detection of the environment of an ego object, and classified, i.e. assigned to different dynamic spatial scenarios. The classification can be carried out manually, for example, by evaluating an image data stream. Alternatively, the sensor data can also be classified automatically, in particular if it is sensor data that was generated by a simulator when simulating various dynamic spatial scenarios.
Anhand der Sensordaten kann in einem weiteren Verfahrensschritt S2 ein zeitlicher Ver- lauf eines Winkelsektors, welcher aus der Perspektive des Ego-Objekts durch ein ande- res Objekt abgedeckt wird, ermittelt werden. Beispielsweise kann die Kontur, insbeson- dere die Querschnittsfläche, des anderen Objekts ermittelt und deren Breite im bzw. den Anteil am Sichtfeld des Ego-Objekts bestimmt werden. Zudem kann ein geometrischer Schwerpunkt der Kontur bzw. der Querschnittsfläche ermittelt und dessen Lage im Sicht- feld des Ego-Objekts, insbesondere relativ zur Bewegungsrichtung des Ego-Objekts, bestimmt werden. In a further method step S2, a temporal course of an angle sector, which is covered by another object from the perspective of the ego object, can be determined on the basis of the sensor data. For example, the contour, in particular the cross-sectional area, of the other object can be determined and its width in or the proportion of the field of vision of the ego object can be determined. In addition, a geometric center of gravity of the contour or the cross-sectional area can be determined and its position in the field of view of the ego object, in particular relative to the direction of movement of the ego object, can be determined.
In einem weiteren Verfahrensschritt S3 wird aus dem zeitlichen Verlauf des Winkelsek- tors in bevorzugter Weise eine, insbesondere grafische, Darstellung erzeugt, die den zeitlichen Verlauf abbildet. In einer solchen Darstellung kann der zeitliche Verlauf des Winkelsektors beispielsweise ein Muster, etwa eine Figur, bilden. Vorzugsweise wird dabei für jeden Zeitpunkt, zu dem Sensordaten erzeugt werden oder zumindest ein von einem anderen Objekt abgedeckter Winkelsektor ermittelt wird, die Breite des Winkelsek- tors, insbesondere dessen Anteil am Sichtfeld des Ego-Objekts, und dessen Lage im Sichtfeld des Ego-Objekts, insbesondere relativ zur Bewegungsrichtung des Ego- Objekts, abgebildet. In a further method step S3, a, in particular graphical, representation is generated from the time profile of the angle sector, which represents the maps over time. In such a representation, the time profile of the angle sector can, for example, form a pattern, for example a figure. For each point in time when sensor data is generated or at least one angle sector covered by another object is determined, the width of the angle sector, in particular its share in the field of view of the ego object, and its position in the field of view of the ego object are preferably determined , in particular relative to the direction of movement of the ego object.
In bevorzugter Weise wird im Verfahrensschritt S3 bei der Erzeugung der Darstellung auch eine Geschwindigkeit des Ego-Objekts, insbesondere eine Transversalgeschwin- digkeit, und/oder ein Abstand, insbesondere ein Transversalabstand, des Ego-Objekts zum anderen Objekt berücksichtigt. Insbesondere kann, etwa anhand einer Funktion, in die als Eingangsgrößen vorzugsweise das dynamische räumliche Szenario charakteri- sierende Parameter wie etwa die Geschwindigkeit und/oder der Abstand eingehen, ein Wert ermittelt und hinterlegt werden oder die Darstellung entsprechend eingefärbt wer- den. Vorzugsweise liefert die erzeugte Darstellung somit Information bezüglich der Breite und Lage des vom anderen Objekt abgedeckten Winkelsektors im Sichtfeld des Ego- Objekts und der Geschwindigkeit des Ego-Objekts und/oder des Abstands zum anderen Objekt. In method step S3, a speed of the ego object, in particular a transverse speed, and / or a distance, in particular a transverse distance, of the ego object from the other object is also taken into account in generating the representation. In particular, a value can be determined and stored, for example using a function into which parameters such as the speed and / or the distance characterizing the dynamic spatial scenario are included, or the representation can be colored accordingly. The generated representation thus preferably provides information regarding the width and position of the angle sector covered by the other object in the field of view of the ego object and the speed of the ego object and / or the distance to the other object.
In einem weiteren Verfahrensschritt S4 wird die erzeugte Darstellung, etwa mittels einer Schnittstelle, einem künstlichen neuronalen Netz zugeführt, welches dadurch insbeson- dere zum Erkennen von Mustern in der erzeugten Darstellung trainiert wird. Zu diesem Zweck wird dem künstlichen neuronalen Netz zudem in bevorzugter weise eine Informa- tion über die dynamischen räumlichen Szenarien, gemäß denen die Sensordaten im Ver- fahrensschritt S1 klassifiziert wurden, zugeführt, so dass das künstliche neuronale Netz die erzeugte Darstellung bzw. die erkannten Muster jeweils mit einem der dynamischen räumlichen Szenarien korrelieren kann. In a further method step S4, the generated representation is fed, for example by means of an interface, to an artificial neural network, which is thereby trained in particular to recognize patterns in the generated representation. For this purpose, information about the dynamic spatial scenarios according to which the sensor data were classified in method step S1 is preferably supplied to the artificial neural network, so that the artificial neural network generates the representation or the recognized pattern can each correlate with one of the dynamic spatial scenarios.
Fig. 7 zeigt ein bevorzugtes Ausführungsbeispiel eines erfindungsgemäßen Verfahrens V3 zum Analysieren von Sensordaten, welche geeignet sind, um ein dynamisches räum- liches Szenario in Bezug auf ein Ego-Objekt und wenigstens ein anderes Objekt zu cha- rakterisieren. Bei den Sensordaten handelt es sich in bevorzugter weise um von Umge- bungssensoren eines Ego-Fahrzeugs erzeugte Sensordaten. In Verfahrensschritt S3 wird aus den Sensordaten eine Darstellung eines zeitlichen Ver- laufs eines Winkelsektors erzeugt. Der Winkelsektor entspricht dabei dem Bereich im Sichtfeld des Ego-Objekts, der von dem anderen Objekt abgedeckt wird. Bei einer sol- chen Darstellung kann es sich beispielsweise um eine Abbildung handeln, in welcher der zeitliche Verlauf des Winkelsektors ein Muster, etwa eine Figur, bildet. 7 shows a preferred exemplary embodiment of a method V3 according to the invention for analyzing sensor data which are suitable for characterizing a dynamic spatial scenario in relation to an ego object and at least one other object. The sensor data are preferably sensor data generated by environmental sensors of a ego vehicle. In method step S3, a representation of a time profile of an angle sector is generated from the sensor data. The angle sector corresponds to the area in the field of view of the ego object that is covered by the other object. Such a representation can be, for example, an illustration in which the temporal course of the angle sector forms a pattern, for example a figure.
Der zeitliche Verlauf des Winkelsektors kann dabei gegebenenfalls auch in einem sepa- raten, vorangehenden Verfahrensschritt (nicht gezeigt) auf Grundlage der Sensordaten ermittelt werden. The time profile of the angle sector can also be determined in a separate, previous method step (not shown) based on the sensor data.
In einem weiteren Verfahrensschritt S5 wird die erzeugte Darstellung mit wenigstens einer vordefinierten Schablone eines bekannten dynamischen räumlichen Szenarios verglichen. Dadurch kann ermittelt werden, in welchem dynamischen räumlichen Szena- rio sich das Ego-Objekt gegenwärtig befindet und gegebenenfalls ein Fahrerassistenz- system entsprechend gesteuert werden. In a further method step S5, the generated representation is compared with at least one predefined template of a known dynamic spatial scenario. In this way, it can be determined in which dynamic spatial scenario the ego object is currently located and, if necessary, a driver assistance system can be controlled accordingly.
Optional kann in einem weiteren Verfahrensschritt S6 die erzeugte Darstellung als weite- re vordefinierte Schablone, beispielsweise in einer Datenbank, gespeichert werden, wenn keine oder zumindest keine ausreichende Übereinstimmung der erzeugten Dar- stellung mit der wenigstens einen vordefinierten Schablone, die einem bekannten dyna- mischen räumlichen Szenarios zugeordnet ist, ermittelt werden kann. Auf diese Weise kann ein Katalog mit vordefinierten Schablonen, die zum Identifizieren von dynamischen räumlichen Szenarien geeignet sind, insbesondere im Wesentlichen in Echtzeit, erzeugt werden. Optionally, in a further method step S6, the generated representation can be saved as a further predefined template, for example in a database, if there is no or at least insufficient correspondence of the generated representation with the at least one predefined template that a known dynamic is assigned to spatial scenarios, can be determined. In this way, a catalog can be generated with predefined templates, which are suitable for identifying dynamic spatial scenarios, in particular essentially in real time.
Bezuqszeichenliste Reference list
1 künstliches neuronales Netz  1 artificial neural network
2 Erzeugungsmodul  2 generation module
3 Ermittlungsmodul  3 determination module
4 Schnittstelle  4 interface
5 Datenbank  5 database
6 Vergleichsmodul  6 comparison module
10 räumliches dynamisches Szenario 10 spatial dynamic scenario
1 1 Ego-Objekt  1 1 ego object
1 1 a Ego-Fahrzeug  1 1 a ego vehicle
12 anderes Fahrzeug  12 other vehicle
12a erstes Fahrzeug  12a first vehicle
12b zweites Fahrzeug  12b second vehicle
12c drittes Fahrzeug  12c third vehicle
13 Kontur  13 contour
20 Darstellung 20 representation
100 System zur Datenaufbereitung 100 data processing system
200 System zum Trainieren eines künstlichen neuronalen Netzes 200 System for training an artificial neural network
300 System zum Analysieren von Sensordaten 300 system for analyzing sensor data
F Winkelsektor F angular sector
F Lage des Winkelsektors  F Position of the angular sector
S Sensordaten y Bewegungsrichtung  S sensor data y direction of movement
d Abstand d distance
a Ausgangssignal a output signal
V1 Verfahren zur Datenaufbereitung V1 Data preparation procedure
V2 Verfahren zum Trainieren eines künstlichen neuronalen Netzes V2 Method for training an artificial neural network
V3 Verfahren zum Analysieren von Sensordaten S1 - S6 Verfahrensschritte V3 Method for analyzing sensor data S1 - S6 procedural steps

Claims

Patentansprüche Claims
1. Verfahren (V1 ) zur Datenaufbereitung von dynamischen räumlichen Szenari- en (10), insbesondere Verkehrsszenarien, für die Verarbeitung durch ein künstli- ches neuronales Netz (1 ), wobei eine Darstellung (20) eines zeitlichen Verlaufs eines Winkelsektors (F), welcher aus der Perspektive eines Ego-Objekts (1 1 ), insbesondere eines Ego-Fahrzeugs (1 1 a), durch ein anderes Objekt (12), insbe- sondere ein anderes Fahrzeug (12a, 12b, 12c), abgedeckt wird, erzeugt wird (S3), wobei der zeitliche Verlauf aus Sensordaten (S) ermittelt ist (S2) und wobei die Sensordaten (S) geeignet sind, um ein dynamisches räumliches Szena- rio (10) in Bezug auf das Ego-Objekt (11 ) und wenigstens ein anderes Objekt (12) zu charakterisieren. 1. Method (V1) for data processing of dynamic spatial scenarios (10), in particular traffic scenarios, for processing by an artificial neural network (1), with a representation (20) of a time profile of an angle sector (F), which is covered from the perspective of an ego object (1 1), in particular an ego vehicle (1 1 a), by another object (12), in particular another vehicle (12a, 12b, 12c) is (S3), the time profile being determined from sensor data (S) (S2) and the sensor data (S) being suitable for creating a dynamic spatial scenario (10) in relation to the ego object (11) and to characterize at least one other object (12).
2. Verfahren (V1 ) nach Anspruch 1 , wobei die Darstellung an ein künstliches neuro- nales Netz (1 ) ausgegeben oder für die Verarbeitung durch das künstliche neuro- nale Netz (1 ) bereitgestellt wird. 2. The method (V1) according to claim 1, wherein the representation is output to an artificial neural network (1) or provided for processing by the artificial neural network (1).
3. Computer-gestütztes Verfahren (V2) zum Trainieren eines künstlichen neuronalen Netzes (1 ) auf der Grundlage von Sensordaten (S), welche geeignet sind, um ein bekanntes dynamisches räumliches Szenario (10) in Bezug auf ein Ego- Objekt (1 1 ) und wenigstens ein anderes Objekt (12) zu charakterisieren, wobei eine Darstellung (20) eines zeitlichen Verlaufs eines Winkelsektors (F), welcher aus der Perspektive eines Ego-Objekts (11 ), insbesondere eines Ego- Fahrzeugs (1 1 a), durch ein anderes Objekt (12), insbesondere ein anderes Fahr- zeug (12a, 12b, 12c), abgedeckt ist, auf der Grundlage der Sensordaten (S) er- zeugt wird (S3), und wobei die erzeugte Darstellung (20) zusammen mit einer In- formation über das räumliche Szenario (10) dem künstlichen neuronalen Netz (1 ) zugeführt wird (S4). 3. Computer-aided method (V2) for training an artificial neural network (1) on the basis of sensor data (S) which are suitable for a known dynamic spatial scenario (10) in relation to an ego object (1 1 ) and to characterize at least one other object (12), a representation (20) of a temporal course of an angular sector (F), which is from the perspective of an ego object (11), in particular an ego vehicle (1 1 a), is covered by another object (12), in particular another vehicle (12a, 12b, 12c), is generated (S3) on the basis of the sensor data (S), and the generated representation (20) together is supplied to the artificial neural network (1) with information about the spatial scenario (10) (S4).
4. Computer-gestütztes Verfahren (V3) zum Analysieren von Sensordaten (S), wel- che geeignet sind, um ein dynamisches räumliches Szenario (10) in Bezug auf ein Ego-Objekt (1 1 ) und wenigstens ein anderes Objekt (12) zu charakterisieren, wobei eine Darstellung (20) eines zeitlichen Verlaufs eines Winkelsektors (F), welcher aus der Perspektive eines Ego-Objekts (1 1 ), insbesondere eines Ego- Fahrzeugs (1 1 a), durch ein anderes Objekt (12), insbesondere ein anderes Fahr- zeug (12a, 12b, 12c), abgedeckt ist, auf der Grundlage der Sensordaten (S) er- zeugt wird (S3), und die erzeugte Darstellung (20) mit wenigstens einer vordefi- nierten Schablone eines bekannten dynamischen räumlichen Szenarios (10) ver- glichen wird (S5). 4. Computer-aided method (V3) for analyzing sensor data (S) which are suitable for creating a dynamic spatial scenario (10) in relation to an ego object (11) and at least one other object (12) to be characterized, wherein a representation (20) of a time profile of an angular sector (F), which from the perspective of an ego object (1 1), in particular an ego vehicle (1 1 a), through another object (12), especially another driving tool (12a, 12b, 12c) is covered, is generated on the basis of the sensor data (S) (S3), and the generated representation (20) with at least one predefined template of a known dynamic spatial scenario (10) is compared (S5).
5. Verfahren (V3) nach Anspruch 4, wobei das dynamische räumliche Szenario (10) auf der Grundlage des Vergleichens klassifiziert wird. 5. The method (V3) according to claim 4, wherein the dynamic spatial scenario (10) is classified on the basis of the comparison.
6. Verfahren (V3) nach Anspruch 4, wobei eine Schablone für ein neues dynami- schen räumliches Szenario (10) definiert wird, wenn die erzeugte Darstellung (10) nicht der wenigstens einen vordefinierten Schablone eines bekannten dynami- schen räumlichen Szenarios (10) zugeordnet werden kann (S6). 6. The method (V3) according to claim 4, wherein a template for a new dynamic spatial scenario (10) is defined if the generated representation (10) does not match the at least one predefined template of a known dynamic spatial scenario (10). can be assigned (S6).
7. Verfahren (V3) nach einem der Ansprüche 1 bis 6, wobei die erzeugte Darstel- lung (10) des Weiteren einen Abstand (d) des Ego-Objekts (1 1 ) zu dem anderen Objekt (12) und/oder einer Geschwindigkeit des Ego-Objekts (1 1 ) wiedergibt, wo- bei der Abstand (d) und/oder die Geschwindigkeit ebenfalls aus Sensordaten (S) ermittelt ist oder sind. 7. The method (V3) according to one of claims 1 to 6, wherein the generated representation (10) furthermore a distance (d) of the ego object (1 1) to the other object (12) and / or a speed of the ego object (11) reproduces, the distance (d) and / or the speed likewise being or being determined from sensor data (S).
8. Verfahren (V3) nach einem der Ansprüche 1 bis 7, wobei der zeitliche Verlauf eines Winkelsektors (F) durch eine Linie dargestellt wird, deren Breite einen Wert des jeweils vorliegenden Winkelsektors (F) angibt, und/oder wobei ein Ab- stand (d) des Ego-Objekts (1 1) zu dem anderen Objekt (12) und/oder eine Ge- schwindigkeit des Ego-Objekts (1 1) durch einen hinterlegten Wert oder eine Ein- färbung an der jeweiligen Stelle der Linie, welche dem Zeitpunkt des Vorliegens des Abstands (d) und/oder der Geschwindigkeit entspricht, dargestellt wird oder werden. 8. The method (V3) according to one of claims 1 to 7, wherein the temporal course of an angle sector (F) is represented by a line, the width of which indicates a value of the respective angle sector (F), and / or wherein a distance (d) the ego object (1 1) to the other object (12) and / or a speed of the ego object (1 1) by a stored value or a coloring at the respective point on the line which corresponds to the time of the presence of the distance (d) and / or the speed, is or will be represented.
9. System (100) zur Datenaufbereitung von dynamischen räumlichen Szenari- en (10), insbesondere Verkehrsszenarien, für die Verarbeitung durch ein künstli- ches neuronales Netz (1 ), aufweisend: 9. System (100) for data processing of dynamic spatial scenarios (10), in particular traffic scenarios, for processing by an artificial neural network (1), comprising:
-ein Ermittlungsmodul (2), welches dazu eingerichtet ist, einen zeitlichen Verlauf eines Winkelsektors (F), welcher aus der Perspektive eines Ego-Objekts (1 1 ), insbesondere eines Ego-Fahrzeugs (1 1 a), durch ein anderes Objekt (12), insbe- sondere ein anderes Fahrzeug (12a, 12b, 12c), abgedeckt wird, aus Sensorda- ten (S) zu ermitteln, wobei die Sensordaten (S) geeignet sind, um ein dynami- sches räumliches Szenario (10) in Bezug auf das Ego-Objekt (1 1 ) und wenigs- tens ein anderes Objekt (12) zu charakterisieren; und a determination module (2), which is set up to plot a temporal profile of an angle sector (F), which from the perspective of an ego object (1 1), in particular an ego vehicle (1 1 a), through another object ( 12), in particular another vehicle (12a, 12b, 12c), is covered from sensor data ten (S), the sensor data (S) being suitable for characterizing a dynamic spatial scenario (10) in relation to the ego object (1 1) and at least one other object (12); and
-ein Erzeugungsmodul (3), welches dazu eingerichtet ist, eine Darstellung (20) des ermittelten zeitlichen Verlaufs zu erzeugen.  - A generation module (3) which is set up to generate a representation (20) of the determined time profile.
10. System (200) zum Trainieren eines künstlichen neuronalen Netzes (1 ) auf der Grundlage von Sensordaten (S), welche geeignet sind, um ein bekanntes dyna- misches räumliches Szenario (10) in Bezug auf ein Ego-Objekt (1 1 ) und wenigs- tens ein anderes Objekt (12) zu charakterisieren, aufweisend: 10. System (200) for training an artificial neural network (1) on the basis of sensor data (S) which are suitable for a known dynamic spatial scenario (10) in relation to an ego object (1 1) and to characterize at least one other object (12), comprising:
-ein Erzeugungsmodul (3), welches dazu eingerichtet ist, eine Darstellung (20) eines zeitlichen Verlaufs eines Winkelsektors (F), welcher aus der Perspektive eines Ego-Objekts (1 1 ), insbesondere eines Ego-Fahrzeugs (1 1a), durch ein anderes Objekt (12), insbesondere ein anderes Fahrzeug (12a, 12b, 12c), ab- gedeckt ist, auf der Grundlage der Sensordaten (S) zu erzeugen;  - A generation module (3), which is set up to display (20) a time profile of an angle sector (F), which from the perspective of an ego object (1 1), in particular an ego vehicle (1 1a) generate another object (12), in particular another vehicle (12a, 12b, 12c), on the basis of the sensor data (S);
-eine Schnittstelle (4), die dazu eingerichtet ist, die erzeugte Darstellung (20) zu- sammen mit einer Information über das räumliche Szenario (10) dem künstli- chen neuronalen Netz (1 ) zuzuführen.  an interface (4) which is set up to supply the generated representation (20) together with information about the spatial scenario (10) to the artificial neural network (1).
1 1. System (300) zum Analysieren von Sensordaten (S), welche geeignet sind, um ein dynamisches räumliches Szenario (10) in Bezug auf ein Ego-Objekt (1 1 ) und wenigstens ein anderes Objekt (12) zu charakterisieren, aufweisend: 1 1. System (300) for analyzing sensor data (S), which are suitable to characterize a dynamic spatial scenario (10) in relation to an ego object (1 1) and at least one other object (12) :
-ein Erzeugungsmodul (3), welches dazu eingerichtet ist, eine Darstellung (20) eines zeitlichen Verlaufs eines Winkelsektors (F), welcher aus der Perspektive eines Ego-Objekts (1 1 ), insbesondere eines Ego-Fahrzeugs (1 1 a), durch ein anderes Objekt (12), insbesondere ein anderes Fahrzeug (12a, 12b, 12c), ab- gedeckt ist, auf der Grundlage der Sensordaten (S) zu erzeugen; und  a generation module (3), which is set up to display (20) a time profile of an angle sector (F), which is from the perspective of an ego object (1 1), in particular an ego vehicle (1 1 a), is covered by another object (12), in particular another vehicle (12a, 12b, 12c), on the basis of the sensor data (S); and
-ein Vergleichsmodul (6), welches dazu eingerichtet ist, die erzeugte Darstel- lung (20) mit wenigstens einer vordefinierten Schablone eines bekannten dyna- mischen räumlichen Szenarios (10) zu vergleichen.  a comparison module (6) which is set up to compare the generated representation (20) with at least one predefined template of a known dynamic spatial scenario (10).
EP19773727.3A 2018-09-14 2019-09-13 Analysis of dynamic spatial scenarios Pending EP3850536A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
ATA50788/2018A AT521647B1 (en) 2018-09-14 2018-09-14 Method and system for data processing, for training an artificial neural network and for analyzing sensor data
PCT/AT2019/060301 WO2020051618A1 (en) 2018-09-14 2019-09-13 Analysis of dynamic spatial scenarios

Publications (1)

Publication Number Publication Date
EP3850536A1 true EP3850536A1 (en) 2021-07-21

Family

ID=68062777

Family Applications (1)

Application Number Title Priority Date Filing Date
EP19773727.3A Pending EP3850536A1 (en) 2018-09-14 2019-09-13 Analysis of dynamic spatial scenarios

Country Status (7)

Country Link
US (1) US20220237889A1 (en)
EP (1) EP3850536A1 (en)
JP (1) JP7511544B2 (en)
KR (1) KR20210060535A (en)
CN (1) CN112673379A (en)
AT (1) AT521647B1 (en)
WO (1) WO2020051618A1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102592826B1 (en) * 2018-10-10 2023-10-23 현대자동차주식회사 Apparatus and method for identificating short cut in vehicle and vehicle including the same
DE102021100395A1 (en) * 2021-01-12 2022-07-14 Dspace Gmbh Computer-implemented method for determining similarity values of traffic scenarios
WO2023087248A1 (en) * 2021-11-19 2023-05-25 华为技术有限公司 Information processing method and apparatus
DE102022126747A1 (en) 2022-10-13 2024-04-18 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Method for generating scenario models for autonomous driving

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3153839B2 (en) * 1993-08-23 2001-04-09 三菱電機株式会社 Preventive safety devices for vehicles
JP3252680B2 (en) * 1995-11-24 2002-02-04 トヨタ自動車株式会社 In-vehicle scanning radar device
JPH10338057A (en) * 1997-06-10 1998-12-22 Hitachi Ltd Automatic travel controller and inter-vehicle distance warning device for automobile
DE10141037C1 (en) * 2001-08-20 2003-04-03 Siemens Ag Obstacle detection device
CN102307774A (en) * 2009-02-03 2012-01-04 大陆-特韦斯贸易合伙股份公司及两合公司 Method and device for carrying out an avoidance manoeuvre
JP5267588B2 (en) * 2010-03-26 2013-08-21 株式会社デンソー Marking line detection apparatus and marking line detection method
CN103530605B (en) * 2013-09-29 2017-01-25 数基科技(北京)有限公司 Method for detecting abnormal behavior of robustness
DE102014213359A1 (en) * 2014-07-09 2016-01-14 Robert Bosch Gmbh Apparatus and method for the acoustic examination of environmental objects of a means of locomotion
SE538908C2 (en) * 2015-10-22 2017-02-07 Uniquesec Ab Testing method with virtual radar signatures for an automotive safety radar system
US11144761B2 (en) * 2016-04-04 2021-10-12 Xerox Corporation Deep data association for online multi-class multi-object tracking
US10664750B2 (en) * 2016-08-10 2020-05-26 Google Llc Deep machine learning to predict and prevent adverse conditions at structural assets
US10339671B2 (en) * 2016-11-14 2019-07-02 Nec Corporation Action recognition using accurate object proposals by tracking detections
JP7069539B2 (en) * 2016-12-07 2022-05-18 スズキ株式会社 Driving support device
KR20180068511A (en) * 2016-12-14 2018-06-22 삼성전자주식회사 Apparatus and method for generating training data for training neural network determining information related to road included in an image
US10228693B2 (en) * 2017-01-13 2019-03-12 Ford Global Technologies, Llc Generating simulated sensor data for training and validation of detection models
US10402163B2 (en) * 2017-02-14 2019-09-03 Accenture Global Solutions Limited Intelligent data extraction
WO2019241022A1 (en) * 2018-06-13 2019-12-19 Nvidia Corporation Path detection for autonomous machines using deep neural networks

Also Published As

Publication number Publication date
AT521647A1 (en) 2020-03-15
CN112673379A (en) 2021-04-16
JP7511544B2 (en) 2024-07-05
JP2022500762A (en) 2022-01-04
AT521647B1 (en) 2020-09-15
US20220237889A1 (en) 2022-07-28
KR20210060535A (en) 2021-05-26
WO2020051618A1 (en) 2020-03-19

Similar Documents

Publication Publication Date Title
AT521607B1 (en) Method and device for testing a driver assistance system
AT521647B1 (en) Method and system for data processing, for training an artificial neural network and for analyzing sensor data
EP3292510B1 (en) Method and apparatus for detecting and assessing road reflections
EP3765927B1 (en) Method for generating a training data record for training an artificial intelligence module for a control device of a vehicle
DE102016107705A1 (en) Reactive path planning for autonomous driving
EP3543985A1 (en) Simulation of different traffic situations for a test vehicle
DE102016007899B4 (en) Method for operating a device for traffic situation analysis, motor vehicle and data processing device
DE102013205882A1 (en) Method and device for guiding a vehicle around an object
DE102008041679A1 (en) Method for environment recognition for navigation system in car, involves storing data of object or feature in storage, and classifying object or feature by comparison of data after visual inspection of object or feature
AT523834B1 (en) Method and system for testing a driver assistance system
DE102018122374B4 (en) Method for determining a free space surrounding a motor vehicle, computer program product, free space determination device and motor vehicle
DE102014003343A1 (en) Method for determining a lane change requirement of a system vehicle
DE102016224291A1 (en) Method for the computer-aided adaptation of a predetermined semi-automated driving system of a motor vehicle
WO2020048669A1 (en) Method for determining a lane change indication of a vehicle, computer-readable storage medium, and vehicle
EP4027245A1 (en) Computer-implemented method for determining similarities of traffic scenarios
DE102016120066A1 (en) A computer implemented method for controlling an object recognition system
EP4350660A1 (en) System and method for predicting a future position of a traffic participant
DE102018205248B4 (en) Fusion system for fusing environmental information for a motor vehicle
EP3576013A1 (en) Estimation of a path of a rail path
DE102019101613A1 (en) Simulate different traffic situations for a test vehicle
WO2022263175A1 (en) Movement prediction for road users
WO2022106336A1 (en) Method for controlling a motor vehicle, and control device
DE102020110671A1 (en) Process for automated longitudinal control
DE102021201521A1 (en) Methods for supporting or automated vehicle guidance
DE102022213064A1 (en) Detection of unknown objects using neural networks for vehicles

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: UNKNOWN

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20210413

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

17Q First examination report despatched

Effective date: 20230222

P01 Opt-out of the competence of the unified patent court (upc) registered

Effective date: 20230503