WO2020239632A1 - Method and apparatus for safely predicting a trajectory - Google Patents

Method and apparatus for safely predicting a trajectory Download PDF

Info

Publication number
WO2020239632A1
WO2020239632A1 PCT/EP2020/064311 EP2020064311W WO2020239632A1 WO 2020239632 A1 WO2020239632 A1 WO 2020239632A1 EP 2020064311 W EP2020064311 W EP 2020064311W WO 2020239632 A1 WO2020239632 A1 WO 2020239632A1
Authority
WO
WIPO (PCT)
Prior art keywords
objects
kinetic
variables
sequence
kin
Prior art date
Application number
PCT/EP2020/064311
Other languages
German (de)
French (fr)
Inventor
Konrad Groh
Original Assignee
Robert Bosch Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch Gmbh filed Critical Robert Bosch Gmbh
Publication of WO2020239632A1 publication Critical patent/WO2020239632A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Definitions

  • the invention relates to a method for classifying future trajectories of objects within an image captured by a sensor, an intention estimator for carrying out this method, a method for training the intention estimator, a computer program and a machine-readable storage medium.
  • a challenge in the reliable classification of video recordings of a scene is to make reliable predictions about a future time course of trajectories in the objects of the scene, that is to say to determine an intention of the objects of the scene.
  • the method with the features of independent claim 1 has the advantage that it can be trained with artificially generated test data, that is to say on a computer, so that a large number of training data can be provided with ease.
  • the invention relates to a computer-implemented method for classifying future trajectory courses of objects within an image captured by a sensor, with the steps:
  • the intermediate step of determining a textureless representation of the image allows such a classifier (also referred to below as: intention estimator) to be trained with artificially generated data.
  • intention estimator also referred to below as: intention estimator
  • the invention makes use of the knowledge that the step of deriving a textless representation from an image represents a sub-problem for which sufficient amounts of training data can very easily be made available, and that textureless representation is comparatively easily verifiable realistically from one Computer generated.
  • Kinetic variables of an object can be understood to mean positions and speeds that allow a movement of the object to be fully described as a rigid body, in particular, and include both translative and rotational variables.
  • the determination of kinetic variables of the identified objects takes place from a plurality of, in particular, immediately successive images of a captured sequence of images.
  • the sequence can for example be given by successive frames of a video recording. It is then advantageous if a sequence of textureless representations of the respective images is determined for the sequence of images, and the kinetic variables of the identified objects are determined from the sequence of textureless representations.
  • the assignment to the class is made by means of a plurality of variables characterizing clusters, in particular cluster centers and cluster radii, which were determined by means of a cluster algorithm on a cluster training data set. I.e. It can be provided that depending on the cluster centers and cluster radii for a provided temporal course of kinetic variables that one of the clusters determined in the cluster training is selected to which the provided temporal course of kinetic variables is most likely associated. Such an assigned cluster can be referred to as the estimated intention of the detected objects.
  • the invention relates to an intention estimator for classifying future trajectory courses of objects within the image captured by the sensor, which is set up to carry out one of the aforementioned methods, comprising:
  • a segmenter in particular a machine learning method such as a new ronal network, which is set up to determine the texture-free representation of the image
  • An object detector in particular a machine learning method such as a neural network, which is set up to identify objects within the image and to determine kinetic variables of the identified objects
  • an estimator that is set up to assign the kinetic variables of the identified objects to a class of a predeterminable plurality of classes.
  • the object detector can be set up to provide a list of the objects identified therein and the associated kinetic variables for an image to be fed to it.
  • the invention relates to a computer-implemented method for training this intention estimator, comprising the steps:
  • the object detector can then be trained by means of the training data set.
  • a scene includes, in particular, a description of a predeterminable position of a video camera (as it can for example be mounted in a motor vehicle) and an (abstract) description of the motor vehicle.
  • a topography around the video camera a course of a street, positions and orientations of moving or immovable objects, types of objects, a temporal course of the movements of the moving objects and a position and orientation as well as an ego movement of the video camera.
  • time profiles of the kinetic variable are given by time profiles of a corresponding jolt, that is to say a time derivative of an acceleration.
  • the invention relates to a computer program which is set up to carry out the above methods and a machine-readable storage medium on which this computer program is stored.
  • FIG. 1 schematically shows a structure of an embodiment of the invention
  • FIG. 2 schematically shows an exemplary embodiment for controlling an at least partially autonomous robot
  • FIG. 3 schematically shows an exemplary embodiment for controlling a manufacturing system
  • FIG. 4 schematically shows an exemplary embodiment for controlling an access system
  • FIG. 5 schematically shows an exemplary embodiment for controlling a monitoring system
  • FIG. 6 shows an exemplary segmentation of a scene
  • FIG. 7 shows, by way of example, a time sequence of illustrated semantic
  • FIG. 8 shows an exemplary course of a jerk
  • FIG. 9 shows an exemplary structure of the intention estimator
  • FIG. 10 shows an exemplary structure of the classifier
  • FIG. 11 shows a possible structure of a training device.
  • FIG. 1 shows an actuator 10 in its environment 20 in interaction with a control system 40.
  • the environment 20 is detected with a sensor 30, which can also be provided by a plurality of sensors, at preferably regular time intervals.
  • the sensor signal S - or, in the case of a plurality of sensors, one sensor signal S each - from the sensor 30 is transmitted to the control system 40.
  • the control system 40 thus receives a sequence of sensor signals S.
  • the control system 40 uses this to determine control signals A, which are transmitted to the actuator 10.
  • the control system 40 receives the sequence of sensor signals S from the sensor 30 in an optional receiving unit 50, which converts the sequence of sensor signals S into a sequence of input images x (alternatively, the sensor signal S can also be directly adopted as the input image x).
  • the input image x can be a section or further processing of the sensor signal S, for example.
  • the input image x can, for example, image data o of images, or individual frames of a video recording. In other words, the input image x is determined as a function of the sensor signal S.
  • the sequence of input images x is fed to the intention estimator 60.
  • Intention estimator 60 is preferably parameterized by parameters f, which are stored in a parameter memory P and are provided by this.
  • the intention estimator 60 determines output variables y from the input images x. Output variables y are fed to an optional conversion unit 80, which uses this to determine control signals A which are fed to the actuator 10 in order to control the actuator 10 accordingly.
  • the actuator 10 receives the control signals A, is controlled accordingly and carries out a corresponding action.
  • the actuator 10 can include control logic (not necessarily structurally integrated), which determines a second control signal from the control signal A, with which the actuator 10 is then controlled.
  • control system 40 includes the sensor 30. In still further embodiments, the control system 40 alternatively or additionally also includes the actuator 10.
  • control system 40 comprises one or a plurality of processors 45 and at least one machine-readable storage medium 46 on which instructions are stored which, when executed on the processors 45, cause the control system 40 to use the method according to the invention execute.
  • a display unit 10a is provided as an alternative or in addition to the actuator 10.
  • FIG. 2 shows how the control system 40 can be used to control an at least partially autonomous robot, here an at least partially autonomous motor vehicle 100.
  • the sensor 30 can be, for example, one or more imaging sensors, such as one or more video sensors, preferably arranged in the motor vehicle 100.
  • the intention estimator 60 is set up to determine from the input images x an analysis of the scene y comprising a prognosis of safe areas that is dependent on the determined intentions of detected objects.
  • the actuator 10, which is preferably arranged in the motor vehicle 100, can be, for example, a brake, a drive or a steering system of the motor vehicle 100.
  • the control signal A can then be determined in such a way that the actuator or actuators 10 is controlled in such a way that the motor vehicle 100 prevents, for example, a collision with the objects identified by the intention estimator 60, in particular when they are objects of certain classes, e.g. pedestrians.
  • control signal A can be determined depending on the determined class and / or according to the determined class and according to the determined intention of the object.
  • the at least partially autonomous robot can also be another mobile robot (not shown), for example one that moves by flying, swimming, diving or striding.
  • the mobile robot can also be, for example, an at least partially autonomous lawnmower or an at least partially autonomous cleaning robot.
  • the control signal A can be determined in such a way that the drive and / or steering of the mobile robot is controlled in such a way that the at least partially autonomous robot prevents, for example, a collision with objects identified by the intention estimator 60.
  • the control signal A can then be determined in such a way that the actuator or actuators 10 are controlled in such a way that the motor vehicle 100 does not leave the safe areas characterized on the basis of output variable y.
  • control signal A can be used to control the display unit 10a and, for example, the ascertained safe areas can be displayed. It is also not included in a motor vehicle 100, for example automated steering possible that the display unit 10a is controlled with the control signal A in such a way that it outputs an optical or acoustic warning signal when it is determined that the motor vehicle 100 threatens to leave the safe areas.
  • FIG. 3 shows an exemplary embodiment in which the control system 40 is used to control a production machine 11 of a production system 200, in that an actuator 10 controlling this production machine 11 is controlled.
  • the manufacturing machine 11 can be, for example, a machine for punching, sawing, drilling and / or cutting.
  • the sensor 30 can then be, for example, an optical sensor, e.g. Properties of manufactured products 12 recorded. It is possible for these manufactured products 12 to be movable. It is possible for the actuator 10 controlling the production machine 11 to be controlled depending on the predicted movement determined, i.e. the intention, of the production product 12 so that the production machine 11 accordingly executes a subsequent processing step of this production product 12.
  • an optical sensor e.g. Properties of manufactured products 12 recorded. It is possible for these manufactured products 12 to be movable. It is possible for the actuator 10 controlling the production machine 11 to be controlled depending on the predicted movement determined, i.e. the intention, of the production product 12 so that the production machine 11 accordingly executes a subsequent processing step of this production product 12.
  • FIG. 4 shows an exemplary embodiment in which the control system 40 is used to control an access system 300.
  • the access system 300 may include a physical access control, for example a door 401.
  • the sensor 30 can be, for example, an optical sensor (for example for capturing image or video data) that is set up to capture a person. This captured image can be interpreted by means of the intention estimator 60. For example, the identity of this person and the intention of the person can be determined.
  • the actuator 10 can be a lock that, depending on the control signal A, enables the access control or not, for example the door 401 opens or not. To this end, the control signal A can be selected as a function of the interpretation of the intention estimator 60, for example as a function of the identified identity and / or intention of the person. Instead of the physical access control, a logical access control can also be provided.
  • FIG. 5 shows an exemplary embodiment in which the control system 40 is used to control a monitoring system 400.
  • This exemplary embodiment differs from the exemplary embodiment illustrated in FIG. 5 in that, instead of the actuator 10, the display unit 10a is provided, which is controlled by the control system 40.
  • the intention estimator 60 can determine whether an object picked up by the optical sensor is suspect, and the control signal A is then selected such that this object is shown highlighted in color by the display unit 10a.
  • FIG. 6 shows an exemplary semantic segmentation of a scene sz.
  • a street st is shown, on which a first object objl is located.
  • Such a scene sz can for example be generated by a renderer.
  • FIG. 7 shows, by way of example, a time sequence of illustrated semantic segmentations of the scene sz.
  • the street st is shown, on which the first object objl and a second object obj2 are located.
  • the first object objl moves towards the camera in the chronological sequence of the images in FIGS. 7a), 7b) and 7c), while the second object obj2 moves away from it.
  • FIG. 8 shows an exemplary course of a jerk r of one of the objects objl, obj2 from the scene shown in FIG. 7 over time t.
  • Time t and jerk r are advantageously discretized in each case at fixed intervals.
  • FIG. 9 shows an exemplary structure of the intention estimator 60.
  • the sequence of input images x is fed to it, where they are first processed by a classifier 64.
  • Classifier 64 determines from the sequence of input images x a sequence of semantic segmentations SEM of the input images of the x and a sequence of classifications i a list of objects obj which were detected in the input images x. These are fed to an integrator 65 which determines the output variable y from them.
  • the classification i can, for example, have been determined by means of a cluster algorithm, and thus a possible one prototypical future behavior of the associated object obj. This prototypical behavior is then coded in the output variable y.
  • FIG. 10 shows an exemplary structure of the classifier 64. This is supplied with a sequence of input images x at successive times k, k + 1, k + 2, i.e. first input image x k + 1 , second input image x k + 2 and third input image x k + 3 .
  • the classifier 64 comprises a segmenter 61 to which the corresponding input image x k , x k + 1 , x k + 2 is fed at the respective point in time and to which the associated semantic segmentation is derived from it
  • SEM k , SEM k + 1 , SEM k + 2 determined. This is fed to the object detector 62, which identifies the visible objects from two successive semantic segmentations and the kinetic variables kin associated with the identified objects (i.e. position, orientation and speeds as well as type), in this case the first kinetic variable kin k + 1 and the second kinetic variable kin k + 2 . This sequence of kinetic quantities kin is fed to the estimator 63, which determines the associated classification i therefrom.
  • the estimator 63 can be trained with a large number of provided training courses of kinetic quantities kin.
  • a cluster algorithm e.g. k-means
  • the time courses are clustered, and quantities characterizing these clusters are stored in the estimator 63 for the identified clusters.
  • Estimator 63 can then for a provided time course of the kinetic variable kin e.g. select the characterizing variable that has the smallest distance to the temporal course of the kinetic variable kin.
  • the classification i can then be selected as a number that characterizes this variable.
  • the characterizing variables determined in the cluster algorithm are preferably also stored in the integrator 65 in order to be included in the determination of the output variable y.
  • FIG. 11 shows a possible construction of a training device 140 for training the intention estimator 60. This is parameterized with parameters f which are provided by a parameter memory P.
  • Exercise device 140 includes a generator 71 that generates a plurality of scenes sz. These are fed to a renderer 72, which generates a Sequence of semantic segmentations SEM determined. These are fed directly to the object detector 62 of the intention estimator 60. Subsequently, the intention estimator 60 determines from the sequence of semantic segmentations SEM the sequence of kinetic variables kin, a list of detected objects obj and an associated classification i. These are fed to a comparator 74.
  • the generator 71 also supplies the associated list of objects as a target object list objs and the associated list of kinetic variables as target values of the kinetic variables kins to the comparator 74.
  • new parameters f ' are determined, which are transmitted to the parameter memory P and replace parameter f there.
  • the object detector 62 is, for example, a neural network, this can be done by determining gradients to minimize a predeterminable cost function and backward propagation.
  • the object probabilities are used to evaluate false positives / false negatives. This means that an object was recognized even though no object is there, and an object was overlooked.
  • a maximum number of visible objects can be assumed. This means that the probabilities of a specifiable number, for example 100, of possible objects in the scene are calculated. If this probability then exceeds a predeterminable threshold value, these candidates are identified as identified objects, which ensures that no object is overlooked. It is then possible for a certain regression error to be divided by the object probability for all objects recognized; the regression error is multiplied by the probability for all other incorrectly recognized objects.
  • the methods executed by the training system 140 can be implemented as a computer program stored on a machine-readable storage medium 146 and executed by a processor 145.
  • the term “computer” encompasses any device for processing specifiable arithmetic rules. These calculation rules can be in the form of software, or in the form of hardware, or also in a mixed form of software and hardware.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

A computer-implemented method for classifying future trajectory profiles for objects within an image (x) captured by a sensor (30), having the steps of: 1) ascertaining a textureless representation (SEM), in particular a semantic segmentation, of the image (x); 2) identifying objects within the image (x); 3) ascertaining kinetic variables, that is to say variables that characterize their kinetic state, such as in particular present kinetic variables, for the identified objects; and 4) assigning the ascertained kinetic variables of the identified objects to one class from a predefinable plurality of classes.

Description

Beschreibung description
Verfahren und Vorrichtung zum sicheren Vorhersagen einer Trajektorie Method and device for the reliable prediction of a trajectory
Die Erfindung betrifft einen Verfahren zum Klassifizieren zukünftiger Trajektorien- verläufe von Objekten innerhalb eines von einem Sensor erfassten Bildes, einen Intentionsschätzer zum Ausführen dieses Verfahrens, ein Verfahren zum Trainie ren des Intentionsschätzers, ein Computerprogramm und ein maschinenlesbares Speichermedium. The invention relates to a method for classifying future trajectories of objects within an image captured by a sensor, an intention estimator for carrying out this method, a method for training the intention estimator, a computer program and a machine-readable storage medium.
Stand der Technik State of the art
Aus der nicht vorveröffentlichten DE 10 2017 223 264.1 ist ein Verfahren zum Detektieren eines Objekts in einem bereitgestellten Eingangssignal, wobei ab hängig von dem bereitgestellten Eingangssignal ein Objekt detektiert wird und wobei eine Ansteuerung eines Aktors abhängig von der Detektion des Objekts erfolgt. DE 10 2017 223 264.1, which was not previously published, discloses a method for detecting an object in a provided input signal, an object being detected as a function of the provided input signal and an actuator being controlled as a function of the detection of the object.
Vorteile der Erfindung Advantages of the invention
Eine Herausforderung bei der sicheren Klassifikation von Videoaufnahmen einer Szene ist es, sichere Prognosen über einen zukünftigen zeitlichen Verlauf von Trajektorien in den Objekten der Szene zu erstellen, also mithin eine Intention der Objekte der Szene zu ermitteln. A challenge in the reliable classification of video recordings of a scene is to make reliable predictions about a future time course of trajectories in the objects of the scene, that is to say to determine an intention of the objects of the scene.
Dies ermöglicht zum Training eine Vielzahl von Trainingsdaten, die als reale auf genommene Daten oft nicht in der erforderlichen Variabilität zur Verfügung ste hen, um sicherstellen zu können, dass alle möglichen Konstellationen abdeckt sind. Das Verfahren mit den Merkmalen des unabhängigen Anspruch 1 hat demge genüber den Vorteil, dass es sich mit künstlich, also auf einem Computer, gene rierten Testdaten trainieren lässt, sodass sich mit Leichtigkeit eine große Vielzahl Trainingsdaten bereitstellen lässt. This enables a large number of training data for training which, as real recorded data, is often not available with the required variability in order to be able to ensure that all possible constellations are covered. In contrast, the method with the features of independent claim 1 has the advantage that it can be trained with artificially generated test data, that is to say on a computer, so that a large number of training data can be provided with ease.
Weitere Aspekte der Erfindung sind Gegenstand der nebengeordneten Ansprü che. Vorteilhafte Weiterbildungen sind Gegenstand der abhängigen Ansprüche. Further aspects of the invention are the subject of the independent claims. Advantageous further developments are the subject of the dependent claims.
Offenbarung der Erfindung Disclosure of the invention
In einem ersten Aspekt betrifft die Erfindung ein computerimplementiertes Ver fahren zum Klassifizieren zukünftiger Trajektorienverläufe von Objekten innerhalb eines von einem Sensor erfassten Bildes, mit den Schritten: In a first aspect, the invention relates to a computer-implemented method for classifying future trajectory courses of objects within an image captured by a sensor, with the steps:
1) Ermitteln einer texturlosen Darstellung, insbesondere einer semantischen Segmentierung, des Bildes; 1) determining a textureless representation, in particular a semantic segmentation, of the image;
2) Identifizieren von Objekten innerhalb des Bildes, insbesondere mittels der texturlosen Darstellung; 2) Identifying objects within the image, in particular by means of the textureless representation;
3) Ermitteln von kinetischen Größen, also von Größen, die ihren kinetischen Zustand charakterisieren, wie insbesondere aktuelle kinetische Größen, der identifizierten Objekte; und 3) Determination of kinetic variables, that is to say variables that characterize their kinetic state, such as in particular current kinetic variables, of the identified objects; and
4) Zuordnen der ermittelten kinetischen Größen der identifizierten Objekte zu einer Klasse einer vorgebbaren Mehrzahl von Klassen. 4) Assigning the determined kinetic variables of the identified objects to a class of a predeterminable plurality of classes.
Es wurde nämlich erkannt, dass sich durch den Zwischenschritt der Ermittlung einer texturlosen Darstellung des Bildes ein solcher Klassifizierer (im Folgenden auch: Intentionsschätzer) mit künstlich generierten Daten trainieren lässt. Die Er findung nutzt hierbei die Erkenntnis aus, dass der Schritt zum Ableiten einer tex turlosen Darstellung aus einem Bild ein Teilproblem darstellt, zu dem sehr leicht ausreichende Mengen Trainingsdaten zur Verfügung gestellt werden können, und dass sich texturlose Darstellung vergleichsweise einfach nachweisbar realis tisch von einem Computer generieren lassen können. This is because it was recognized that the intermediate step of determining a textureless representation of the image allows such a classifier (also referred to below as: intention estimator) to be trained with artificially generated data. The invention makes use of the knowledge that the step of deriving a textless representation from an image represents a sub-problem for which sufficient amounts of training data can very easily be made available, and that textureless representation is comparatively easily verifiable realistically from one Computer generated.
Unter kinetischen Größen eines Objekts können Positionen und Geschwindigkei ten verstanden werden, die es erlauben, eine Bewegung des Objektes als starrer Körper insbesondere vollständig zu beschreiben, und sowohl translative als auch rotatorische Größen umfassen. In einer Weiterbildung dieses Aspekts ist vorgesehen, dass die Ermittlung kineti scher Größen der identifizierten Objekte aus einer Mehrzahl von insbesondere unmittelbar aufeinander folgenden Bildern einer erfassten Sequenz von Bildern erfolgt. Die Sequenz kann beispielsweise durch aufeinander folgende Frames ei ner Videoaufnahme gegeben sein. Es ist dann vorteilhaft, wenn zu der Sequenz von Bildern eine Sequenz von texturlosen Darstellungen der jeweiligen Bilder er mittelt wird, und wobei die Ermittlung der kinetischen Größen der identifizierten Objekte aus der Sequenz texturloser Darstellungen erfolgt. Kinetic variables of an object can be understood to mean positions and speeds that allow a movement of the object to be fully described as a rigid body, in particular, and include both translative and rotational variables. In a further development of this aspect, it is provided that the determination of kinetic variables of the identified objects takes place from a plurality of, in particular, immediately successive images of a captured sequence of images. The sequence can for example be given by successive frames of a video recording. It is then advantageous if a sequence of textureless representations of the respective images is determined for the sequence of images, and the kinetic variables of the identified objects are determined from the sequence of textureless representations.
Liegt eine Sequenz von Bildern vor, ist es sinnvoll, eine Sequenz jeweiliger kine tischer Größen zu ermitteln, und wobei die Zuordnung zu der Klasse abhängig von der Sequenz der kinetischen Größen erfolgt. Es wurde nämlich erkannt, dass sich aus dem zurückliegenden zeitlichen Verlauf, also der zurückliegenden Se quenz kinetischer Größen Rückschlüsse auf einen zukünftigen Verlauf ziehen lassen können. If there is a sequence of images, it makes sense to determine a sequence of respective kinetic variables, and the assignment to the class is made as a function of the sequence of kinetic variables. This is because it was recognized that conclusions about a future course can be drawn from the previous time course, that is to say the previous sequence of kinetic variables.
In einer weiteren Weiterbildung kann hierbei vorgesehen sein, dass die Zuord nung zu der Klasse mittels eine Mehrzahl von Clustern charakterisierenden Grö ßen, insbesondere Clusterzentren und Clusterradien, erfolgt, welche mittels ei nes Clusteralgorithmus auf einem Cluster-Trainingsdatensatz ermittelt wurden. D.h. es kann vorgesehen sein, dass abhängig von den Clusterzentren und Clus terradien für einen bereitgestellten zeitlichen Verlauf kinetischer Größen derje nige der im Clustertraining ermittelten Cluster ausgewählt wird, dem der bereitge stellte zeitliche Verlauf kinetischer Größen am ehesten zugehörig ist. Einen sol chen zugeordneten Cluster kann man als geschätzte Intention der detektierten Objekte bezeichnen. In a further development, it can be provided that the assignment to the class is made by means of a plurality of variables characterizing clusters, in particular cluster centers and cluster radii, which were determined by means of a cluster algorithm on a cluster training data set. I.e. It can be provided that depending on the cluster centers and cluster radii for a provided temporal course of kinetic variables that one of the clusters determined in the cluster training is selected to which the provided temporal course of kinetic variables is most likely associated. Such an assigned cluster can be referred to as the estimated intention of the detected objects.
In einem weiteren Aspekt betrifft die Erfindung einen Intentionsschätzer zum Klassifizieren zukünftiger Trajektorienverläufe von Objekten innerhalb des von dem Sensor erfassten Bildes, welcher eingerichtet ist, eines der vorgenannten Verfahren auszuführen, umfassend: In a further aspect, the invention relates to an intention estimator for classifying future trajectory courses of objects within the image captured by the sensor, which is set up to carry out one of the aforementioned methods, comprising:
- einen Segmentierer, insbesondere ein maschinelles Lernverfahren wie ein neu ronales Netz, das eingerichtet ist, die texturlose Darstellung des Bildes zu ermit teln; - einen Objektdetektor, insbesondere ein maschinelles Lernverfahren wie ein neuronales Netz, der eingerichtet ist, Objekten innerhalb des Bildes zu identifizie ren und kinetische Größen der identifizierten Objekte zu ermitteln; und - A segmenter, in particular a machine learning method such as a new ronal network, which is set up to determine the texture-free representation of the image; - An object detector, in particular a machine learning method such as a neural network, which is set up to identify objects within the image and to determine kinetic variables of the identified objects; and
- einen Schätzer, der eingerichtet ist, die kinetischen Größen der identifizierten Objekte zu einer Klasse einer vorgebbaren Mehrzahl von Klassen zuzuordnen. an estimator that is set up to assign the kinetic variables of the identified objects to a class of a predeterminable plurality of classes.
Mit anderen Worten kann der Objektdetektor eingerichtet sein, zu einem ihm zu geführten Bild eine Liste der darin identifizierten Objekte und der zugehörigen ki netischen Größen bereitzustellen. In other words, the object detector can be set up to provide a list of the objects identified therein and the associated kinetic variables for an image to be fed to it.
In einem weiteren Aspekt betrifft die Erfindung ein computerimplementiertes Ver fahren zum Trainieren dieses Intentionsschätzers, umfassend die Schritte: In a further aspect, the invention relates to a computer-implemented method for training this intention estimator, comprising the steps:
- Generieren einer Mehrzahl von Szenen; - generating a plurality of scenes;
- Erzeugen texturfreier Darstellungen (wie z.B. semantischer Segmentierungen) entsprechend von einer vorgebbaren Kameraposition aus aufgenommenen Bil dern der Szene; - Generation of texture-free representations (such as semantic segmentations) in accordance with images of the scene recorded from a prescribable camera position;
- Bereitstellen eines Trainingsdatensatzes zum Trainieren des Intentionsschät zers, umfassend die erzeugten texturfreien Darstellungen und - Providing a training data set for training the intention estimator, comprising the generated texture-free representations and
a) aus den jeweiligen Szenen generierte Sollwerte der kinetischen Größen, und/oder a) setpoint values of the kinetic variables generated from the respective scenes, and / or
b) aus den jeweiligen Szenen generierte Sollwerten der in der texturfreien Dar stellung aus der vorgebbaren Kameraposition sichtbaren Objekte. b) setpoint values generated from the respective scenes of the objects visible in the texture-free display from the specifiable camera position.
Mittels des Trainingsdatensatzes kann der Objektdetektor dann trainiert werden. The object detector can then be trained by means of the training data set.
Eine Szene umfasst hierbei insbesondere eine Beschreibung einer vorgebbaren Position einer Videokamera (wie sie beispielsweise in einem Kraftfahrzeug mon tiert sein kann) und eine (abstrakte) Beschreibung des Kraftfahrzeugs. Insbeson dere kann es eine Topographie um die Videokamera, einen Verlauf einer Straße, Positionen und Orientierungen beweglicher oder unbeweglicher Objekte, Typen angaben der Objekte, einen zeitlichen Verlauf der Bewegungen der beweglichen Objekte und eine Position und Orientierung sowie eine Ego-Bewegung der Vide okamera. In this case, a scene includes, in particular, a description of a predeterminable position of a video camera (as it can for example be mounted in a motor vehicle) and an (abstract) description of the motor vehicle. In particular, there can be a topography around the video camera, a course of a street, positions and orientations of moving or immovable objects, types of objects, a temporal course of the movements of the moving objects and a position and orientation as well as an ego movement of the video camera.
Aus dieser vorgebbaren Position der Videokamera heraus kann dann z.B. mit ei nem Rendering-Verfahren für eine vorgebbare Folge von Zeitpunkten jeweils eine texturfreie Darstellung der Szene aus Sicht der Videokamera erzeugt wer den. From this predeterminable position of the video camera, it is then possible, for example, with a rendering method for a predeterminable sequence of times a texture-free representation of the scene from the point of view of the video camera is generated.
Mit einem solchen Datensatz ist es möglich, den Objektdetektor und somit auch den Intentionsschätzer mit synthetisch generierten (d.h. computergenerierten) Trainingsdaten zu trainieren. With such a data set it is possible to train the object detector and thus also the intention estimator with synthetically generated (i.e. computer-generated) training data.
Besonders vorteilhaft ist es hierbei, wenn die zeitlichen Verläufe der kinetischen Größe durch zeitliche Verläufe eines entsprechenden Rucks, also einer zeitlichen Ableitung einer Beschleunigung, gegeben sind. Durch Verwendung des Rucks ist es möglich, durch zeitliche Integration realistische zeitliche Verläufe der Objekte zu erhalten, ohne dass die zeitlichen Verläufe des Rucks selbst komplexen An forderungen genügen müssen. It is particularly advantageous here if the time profiles of the kinetic variable are given by time profiles of a corresponding jolt, that is to say a time derivative of an acceleration. By using the jerk, it is possible to obtain realistic temporal progressions of the objects through temporal integration, without the temporal progression of the jerk itself having to meet complex requirements.
In weiteren Aspekten betrifft die Erfindung ein Computerprogramm, das einge richtet, die obigen Verfahren auszuführen und ein maschinenlesbares Speicher medium, auf dem dieses Computerprogramm gespeichert ist. In further aspects, the invention relates to a computer program which is set up to carry out the above methods and a machine-readable storage medium on which this computer program is stored.
Nachfolgend werden Ausführungsformen der Erfindung unter Bezugnahme auf die beiliegenden Zeichnungen näher erläutert. In den Zeichnungen zeigen: Embodiments of the invention are explained in more detail below with reference to the accompanying drawings. In the drawings show:
Figur 1 schematisch einen Aufbau einer Ausführungsform der Erfindung; FIG. 1 schematically shows a structure of an embodiment of the invention;
Figur 2 schematisch ein Ausführungsbeispiel zur Steuerung eines wenigs tens teilautonomen Roboters; FIG. 2 schematically shows an exemplary embodiment for controlling an at least partially autonomous robot;
Figur 3 schematisch ein Ausführungsbeispiel zur Steuerung eines Ferti gungssystems; FIG. 3 schematically shows an exemplary embodiment for controlling a manufacturing system;
Figur 4 schematisch ein Ausführungsbeispiel zur Steuerung eines Zugangs systems; FIG. 4 schematically shows an exemplary embodiment for controlling an access system;
Figur 5 schematisch ein Ausführungsbeispiel zur Steuerung eines Überwa chungssystems; Figur 6 eine beispielhafte Segmentierung einer Szene; FIG. 5 schematically shows an exemplary embodiment for controlling a monitoring system; FIG. 6 shows an exemplary segmentation of a scene;
Figur 7 beispielhaft eine zeitliche Abfolge von dargestellten semantischen FIG. 7 shows, by way of example, a time sequence of illustrated semantic
Segmentierungen der Szene; Segmentations of the scene;
Figur 8 zeigt einen beispielhaften Verlauf eines Rucks; FIG. 8 shows an exemplary course of a jerk;
Figur 9 einen beispielhaften Aufbau des Intentionsschätzers; FIG. 9 shows an exemplary structure of the intention estimator;
Figur 10 einen beispielhaften Aufbau des Klassifikators; FIG. 10 shows an exemplary structure of the classifier;
Figur 11 einen möglichen Aufbau einer Trainingsvorrichtung. FIG. 11 shows a possible structure of a training device.
Beschreibung der Ausführungsbeispiele Description of the exemplary embodiments
Figur 1 zeigt einen Aktor 10 in seiner Umgebung 20 in Interaktion mit einem Steuerungssystem 40. In vorzugsweise regelmäßigen zeitlichen Abständen wird die Umgebung 20 mit einem Sensor 30 erfasst, der auch durch eine Mehrzahl von Sensoren gegeben sein kann. Das Sensorsignal S - bzw. im Fall mehrerer Sensoren je ein Sensorsignal S - des Sensors 30 wird an das Steuerungssystem 40 übermittelt. Das Steuerungssystem 40 empfängt somit eine Folge von Sen sorsignalen S. Das Steuerungssystem 40 ermittelt hieraus Ansteuersignale A, welche an den Aktor 10 übertragen werden. FIG. 1 shows an actuator 10 in its environment 20 in interaction with a control system 40. The environment 20 is detected with a sensor 30, which can also be provided by a plurality of sensors, at preferably regular time intervals. The sensor signal S - or, in the case of a plurality of sensors, one sensor signal S each - from the sensor 30 is transmitted to the control system 40. The control system 40 thus receives a sequence of sensor signals S. The control system 40 uses this to determine control signals A, which are transmitted to the actuator 10.
Das Steuerungssystem 40 empfängt die Folge von Sensorsignalen S des Sen sors 30 in einer optionalen Empfangseinheit 50, die die Folge von Sensorsigna len S in eine Folge von Eingangsbildern x umwandelt (alternativ kann auch un mittelbar je das Sensorsignal S als Eingangsbild x übernommen werden). Das Eingangsbild x kann beispielsweise ein Ausschnitt oder eine Weiterverarbeitung des Sensorsignals S sein. Das Eingangsbild x kann beispielsweise Bilddaten o- der Bilder umfassen, oder einzelne Frames einer Videoaufzeichnung. Mit ande ren Worten wird Eingangsbild x abhängig von Sensorsignal S ermittelt. Die Folge von Eingangsbildern x wird dem Intentionsschätzer 60 zugeführt. The control system 40 receives the sequence of sensor signals S from the sensor 30 in an optional receiving unit 50, which converts the sequence of sensor signals S into a sequence of input images x (alternatively, the sensor signal S can also be directly adopted as the input image x). The input image x can be a section or further processing of the sensor signal S, for example. The input image x can, for example, image data o of images, or individual frames of a video recording. In other words, the input image x is determined as a function of the sensor signal S. The sequence of input images x is fed to the intention estimator 60.
Intentionsschätzer 60 wird vorzugsweise parametriert durch Parameter f, die in einem Parameterspeicher P hinterlegt sind und von diesem bereitgestellt werden. Intention estimator 60 is preferably parameterized by parameters f, which are stored in a parameter memory P and are provided by this.
Der Intentionsschätzer 60 ermittelt aus den Eingangsbildern x Ausgangsgrößen y. Ausgangsgrößen y werden einer optionalen Umformeinheit 80 zugeführt, die hieraus Ansteuersignale A ermittelt, welche dem Aktor 10 zugeführt werden, um den Aktor 10 entsprechend anzusteuern. The intention estimator 60 determines output variables y from the input images x. Output variables y are fed to an optional conversion unit 80, which uses this to determine control signals A which are fed to the actuator 10 in order to control the actuator 10 accordingly.
Der Aktor 10 empfängt die Ansteuersignale A, wird entsprechend angesteuert und führt eine entsprechende Aktion aus. Der Aktor 10 kann hierbei eine (nicht notwendigerweise baulich integrierte) Ansteuerlogik umfassen, welches aus dem Ansteuersignal A ein zweites Ansteuersignal ermittelt, mit dem dann der Aktor 10 angesteuert wird. The actuator 10 receives the control signals A, is controlled accordingly and carries out a corresponding action. The actuator 10 can include control logic (not necessarily structurally integrated), which determines a second control signal from the control signal A, with which the actuator 10 is then controlled.
In weiteren Ausführungsformen umfasst das Steuerungssystem 40 den Sensor 30. In noch weiteren Ausführungsformen umfasst das Steuerungssystem 40 al ternativ oder zusätzlich auch den Aktor 10. In further embodiments, the control system 40 includes the sensor 30. In still further embodiments, the control system 40 alternatively or additionally also includes the actuator 10.
In weiteren bevorzugten Ausführungsformen umfasst das Steuerungssystem 40 eine Ein- oder Mehrzahl von Prozessoren 45 und wenigstens ein maschinenles bares Speichermedium 46, auf dem Anweisungen gespeichert sind, die dann, wenn sie auf den Prozessoren 45 ausgeführt werden, das Steuerungssystem 40 veranlassen, das erfindungsgemäße Verfahren auszuführen. In further preferred embodiments, the control system 40 comprises one or a plurality of processors 45 and at least one machine-readable storage medium 46 on which instructions are stored which, when executed on the processors 45, cause the control system 40 to use the method according to the invention execute.
In alternativen Ausführungsformen ist alternativ oder zusätzlich zum Aktor 10 eine Anzeigeeinheit 10a vorgesehen. In alternative embodiments, a display unit 10a is provided as an alternative or in addition to the actuator 10.
Figur 2 zeigt, wie das Steuerungssystem 40 zur Steuerung eines wenigstens teil autonomen Roboters, hier eines wenigstens teilautonomen Kraftfahrzeugs 100, eingesetzt werden kann. Bei dem Sensor 30 kann es sich beispielsweise um einen oder mehrere vorzugs weise im Kraftfahrzeug 100 angeordnete bildgebende Sensoren wie etwa einen oder mehrere Videosensoren handeln. FIG. 2 shows how the control system 40 can be used to control an at least partially autonomous robot, here an at least partially autonomous motor vehicle 100. The sensor 30 can be, for example, one or more imaging sensors, such as one or more video sensors, preferably arranged in the motor vehicle 100.
Der Intentionsschätzer 60 ist eingerichtet, aus den Eingangsbildern x eine Ana lyse der Szene y umfassend eine von den ermittelten Intentionen detektierter Ob jekte abhängige Prognose sicherer Bereiche zu ermitteln. The intention estimator 60 is set up to determine from the input images x an analysis of the scene y comprising a prognosis of safe areas that is dependent on the determined intentions of detected objects.
Bei dem vorzugsweise im Kraftfahrzeug 100 angeordneten Aktor 10 kann es sich beispielsweise um eine Bremse, einen Antrieb oder eine Lenkung des Kraftfahr zeugs 100 handeln. Das Ansteuersignal A kann dann derart ermittelt werden, dass der Aktor oder die Aktoren 10 derart angesteuert wird, dass das Kraftfahr zeug 100 beispielsweise eine Kollision mit den vom Intentionsschätzer 60 identifi zierten Objekte verhindert, insbesondere, wenn es sich um Objekte bestimmter Klassen, z.B. um Fußgänger, handelt. Mit anderen Worten kann Ansteuersignal A abhängig von der ermittelten Klasse und/oder entsprechend der ermittelten Klasse und entsprechend der ermittelten Intention des Objekts ermittelt werden. The actuator 10, which is preferably arranged in the motor vehicle 100, can be, for example, a brake, a drive or a steering system of the motor vehicle 100. The control signal A can then be determined in such a way that the actuator or actuators 10 is controlled in such a way that the motor vehicle 100 prevents, for example, a collision with the objects identified by the intention estimator 60, in particular when they are objects of certain classes, e.g. pedestrians. In other words, control signal A can be determined depending on the determined class and / or according to the determined class and according to the determined intention of the object.
Alternativ kann es sich bei dem wenigstens teilautonomen Roboter auch um ei nen anderen mobilen Roboter (nicht abgebildet) handeln, beispielsweise um ei nen solchen, der sich durch Fliegen, Schwimmen, Tauchen oder Schreiten fort bewegt. Bei dem mobilen Roboter kann es sich beispielsweise auch um einen wenigstens teilautonomen Rasenmäher oder einen wenigstens teilautonomen Putzroboter handeln. Auch in diesen Fällen kann das Ansteuersignal A derart er mittelt werden, dass Antrieb und/oder Lenkung des mobilen Roboters derart an gesteuert werden, dass der wenigstens teilautonome Roboter beispielsweise eine Kollision mit vom Intentionsschätzer 60 identifizierten Objekten verhindert. Alternatively, the at least partially autonomous robot can also be another mobile robot (not shown), for example one that moves by flying, swimming, diving or striding. The mobile robot can also be, for example, an at least partially autonomous lawnmower or an at least partially autonomous cleaning robot. In these cases, too, the control signal A can be determined in such a way that the drive and / or steering of the mobile robot is controlled in such a way that the at least partially autonomous robot prevents, for example, a collision with objects identified by the intention estimator 60.
Das Ansteuersignal A kann dann derart ermittelt werden, dass der Aktor oder die Aktoren 10 derart angesteuert wird, dass das Kraftfahrzeug 100 die anhand Aus gangsgröße y charakterisierten sicheren Bereiche nicht verlässt. The control signal A can then be determined in such a way that the actuator or actuators 10 are controlled in such a way that the motor vehicle 100 does not leave the safe areas characterized on the basis of output variable y.
Alternativ oder zusätzlich kann mit dem Ansteuersignal A die Anzeigeeinheit 10a angesteuert werden, und beispielsweise die ermittelten sicheren Bereiche darge stellt werden. Auch ist es beispielsweise beim einem Kraftfahrzeug 100 mit nicht automatisierter Lenkung möglich, dass die Anzeigeeinheit 10a mit dem Ansteuer signal A derart angesteuert wird, dass sie ein optisches oder akustisches Warn signal ausgibt, wenn ermittelt wird, dass das Kraftfahrzeug 100 droht, die siche ren Bereiche zu verlassen. As an alternative or in addition, the control signal A can be used to control the display unit 10a and, for example, the ascertained safe areas can be displayed. It is also not included in a motor vehicle 100, for example automated steering possible that the display unit 10a is controlled with the control signal A in such a way that it outputs an optical or acoustic warning signal when it is determined that the motor vehicle 100 threatens to leave the safe areas.
Figur 3 zeigt ein Ausführungsbeispiel, in dem das Steuerungssystem 40 zur An steuerung einer Fertigungsmaschine 11 eines Fertigungssystems 200 verwendet wird, indem ein diese Fertigungsmaschine 11 steuernder Aktor 10 angesteuert wird. Bei der Fertigungsmaschine 11 kann es sich beispielsweise um eine Ma schine zum Stanzen, Sägen, Bohren und/oder Schneiden handeln. FIG. 3 shows an exemplary embodiment in which the control system 40 is used to control a production machine 11 of a production system 200, in that an actuator 10 controlling this production machine 11 is controlled. The manufacturing machine 11 can be, for example, a machine for punching, sawing, drilling and / or cutting.
Bei dem Sensor 30 kann es sich dann beispielsweise um einen optischen Sensor handeln, der z.B. Eigenschaften von Fertigungserzeugnissen 12 erfasst. Es ist möglich, dass diese Fertigungserzeugnisse 12 beweglich sind. Es ist möglich, dass der die Fertigungsmaschine 11 steuernde Aktor 10 abhängig von der ermit telten prognostizierten Bewegung, also der Intention, des Fertigungserzeugnis ses 12 angesteuert wird, damit die Fertigungsmaschine 11 entsprechend einen nachfolgenden Bearbeitungsschritt dieses Fertigungserzeugnisses 12 ausführt. The sensor 30 can then be, for example, an optical sensor, e.g. Properties of manufactured products 12 recorded. It is possible for these manufactured products 12 to be movable. It is possible for the actuator 10 controlling the production machine 11 to be controlled depending on the predicted movement determined, i.e. the intention, of the production product 12 so that the production machine 11 accordingly executes a subsequent processing step of this production product 12.
Figur 4 zeigt ein Ausführungsbeispiel, bei dem das Steuerungssystem 40 zur Steuerung eines Zugangssystems 300 eingesetzt wird. Das Zugangssystem 300 kann eine physische Zugangskontrolle, beispielsweise eine Tür 401 umfassen.FIG. 4 shows an exemplary embodiment in which the control system 40 is used to control an access system 300. The access system 300 may include a physical access control, for example a door 401.
Bei dem Sensor 30 kann es sich beispielsweise um einen optischen Sensor (bei spielsweise zur Erfassung von Bild- oder Videodaten) handeln, der eingerichtet ist, eine Person zu erfassen. Mittels des Intentionsschätzers 60 kann dieses er fasste Bild interpretiert werden. Beispielsweise kann die Identität dieser und die Intention der Person ermittelt werden. Der Aktor 10 kann ein Schloss sein, dass abhängig vom Ansteuersignal A die Zugangskontrolle freigibt, oder nicht, bei spielsweise die Tür 401 öffnet, oder nicht. Hierzu kann das Ansteuersignal A ab hängig von der der Interpretation des Intentionsschätzers 60 gewählt werden, beispielsweise abhängig von der ermittelten Identität und/oder Intention der Per son. An Stelle der physischen Zugangskontrolle kann auch eine logische Zu gangskontrolle vorgesehen sein. Figur 5 zeigt ein Ausführungsbeispiel, bei dem das Steuerungssystem 40 zur Steuerung eines Überwachungssystems 400 verwendet wird. Von dem in Figur 5 dargestellten Ausführungsbeispiel unterscheidet sich dieses Ausführungsbeispiel dadurch, dass an Stelle des Aktors 10 die Anzeigeeinheit 10a vorgesehen ist, die vom Steuerungssystem 40 angesteuert wird. Beispielsweise kann vom Intenti onsschätzer 60 ermittelt werden, ob ein vom optischen Sensor aufgenommener Gegenstand verdächtig ist, und das Ansteuersignal A dann derart gewählt wer den, dass dieser Gegenstand von der Anzeigeeinheit 10a farblich hervorgehoben dargestellt wird. The sensor 30 can be, for example, an optical sensor (for example for capturing image or video data) that is set up to capture a person. This captured image can be interpreted by means of the intention estimator 60. For example, the identity of this person and the intention of the person can be determined. The actuator 10 can be a lock that, depending on the control signal A, enables the access control or not, for example the door 401 opens or not. To this end, the control signal A can be selected as a function of the interpretation of the intention estimator 60, for example as a function of the identified identity and / or intention of the person. Instead of the physical access control, a logical access control can also be provided. FIG. 5 shows an exemplary embodiment in which the control system 40 is used to control a monitoring system 400. This exemplary embodiment differs from the exemplary embodiment illustrated in FIG. 5 in that, instead of the actuator 10, the display unit 10a is provided, which is controlled by the control system 40. For example, the intention estimator 60 can determine whether an object picked up by the optical sensor is suspect, and the control signal A is then selected such that this object is shown highlighted in color by the display unit 10a.
Figur 6 zeigt eine beispielhafte semantische Segmentierung einer Szene sz. Dar gestellt ist eine Straße st, auf der sich ein erstes Objekt objl befindet. Eine sol che Szene sz kann beispielsweise von einem Renderer erzeugt werden. FIG. 6 shows an exemplary semantic segmentation of a scene sz. A street st is shown, on which a first object objl is located. Such a scene sz can for example be generated by a renderer.
Figur 7 zeigt beispielhaft eine zeitliche Abfolge von dargestellten semantischen Segmentierungen der Szene sz. Dargestellt ist die Straße st, auf der sich das erste Objekt objl und ein zweites Objekt obj2 befindet. Wie ersichtlich bewegt sich das erste Objekt objl in der zeitlichen Abfolge der Bilder in Figur 7a), 7b) und 7c) auf die Kamera zu, während sich das zweite Objekt obj2 von ihr wegbe wegt. FIG. 7 shows, by way of example, a time sequence of illustrated semantic segmentations of the scene sz. The street st is shown, on which the first object objl and a second object obj2 are located. As can be seen, the first object objl moves towards the camera in the chronological sequence of the images in FIGS. 7a), 7b) and 7c), while the second object obj2 moves away from it.
Figur 8 zeigt einen beispielhaften Verlauf eines Rucks r eines der Objekte objl, obj2 aus der in Figur 7 dargestellten Szene über der Zeit t. Vorteilhafterweise sind Zeit t wie auch Ruck r in jeweils festen Intervallen diskretisiert. Durch die Vorgabe solcher zeitlichen Verläufe des Rucks r lässt sich der zeitliche Verlauf der Objekte in der in Figur 7 dargestellten Szene beschreiben. FIG. 8 shows an exemplary course of a jerk r of one of the objects objl, obj2 from the scene shown in FIG. 7 over time t. Time t and jerk r are advantageously discretized in each case at fixed intervals. By specifying such temporal courses of the jerk r, the temporal course of the objects in the scene shown in FIG. 7 can be described.
Figur 9 zeigt einen beispielhaften Aufbau des Intentionsschätzers 60. Ihm wird die Folge von Eingangsbildern x zugeführt, wo sie zunächst von einem Klassifi kator 64 verarbeitet werden. Klassifikator 64 ermittelt aus der Folge von Ein gangsbildern x eine Folge semantischer Segmentierungen SEM der Eingangsbil der x und eine Folge von Klassifikationen i eine Liste von Objekten obj, die in den Eingangsbildern x detektiert wurden. Diese werden einem Integrator 65 zuge führt, der hieraus die Ausgangsgröße y ermittelt. Die Klassifikation i kann z.B. mittels eines Clusteralgorithmus ermittelt worden sein, und damit ein mögliches prototypisches zukünftiges Verhalten des zugehörigen Objektes obj. Dieses pro- totypische Verhalten ist dann in der Ausgangsgröße y kodiert. FIG. 9 shows an exemplary structure of the intention estimator 60. The sequence of input images x is fed to it, where they are first processed by a classifier 64. Classifier 64 determines from the sequence of input images x a sequence of semantic segmentations SEM of the input images of the x and a sequence of classifications i a list of objects obj which were detected in the input images x. These are fed to an integrator 65 which determines the output variable y from them. The classification i can, for example, have been determined by means of a cluster algorithm, and thus a possible one prototypical future behavior of the associated object obj. This prototypical behavior is then coded in the output variable y.
Figur 10 zeigt einen beispielhaften Aufbau des Klassifikators 64. Diesem wird eine Folge von Eingangsbildern x zu aufeinanderfolgenden Zeitpunkten k, k+1, k+2 zugeführt, also erstes Eingangsbild xk+1, zweites Eingangsbild xk+2 und drit tes Eingangsbild xk+3. Der Klassifikator 64 umfasst einen Segmentierer 61, dem zum jeweiligen Zeitpunkt das entsprechende Eingangsbild xk, xk+1, xk+2 zuge führt wird und der daraus die zugehörige semantische Segmentierung FIG. 10 shows an exemplary structure of the classifier 64. This is supplied with a sequence of input images x at successive times k, k + 1, k + 2, i.e. first input image x k + 1 , second input image x k + 2 and third input image x k + 3 . The classifier 64 comprises a segmenter 61 to which the corresponding input image x k , x k + 1 , x k + 2 is fed at the respective point in time and to which the associated semantic segmentation is derived from it
SEMk, SEMk+1, SEMk+2 ermittelt. Diese wird dem Objektdetektor 62 zugeführt, der aus zwei aufeinanderfolgenden semantischen Segmentierungen die sichtbaren Objekte identifiziert und zu den identifizierten Objekten zugehörige kinetische Größen kin (also Position, Orientierung und Geschwindigkeiten sowie Typ), hier also erste kinetische Größe kink+1 und zweite kinetische Größe kink+2. Diese Abfolge kinetischer Größen kin wird dem Schätzer 63 zugeführt, der hieraus die zugehörige Klassifikation i ermittelt. SEM k , SEM k + 1 , SEM k + 2 determined. This is fed to the object detector 62, which identifies the visible objects from two successive semantic segmentations and the kinetic variables kin associated with the identified objects (i.e. position, orientation and speeds as well as type), in this case the first kinetic variable kin k + 1 and the second kinetic variable kin k + 2 . This sequence of kinetic quantities kin is fed to the estimator 63, which determines the associated classification i therefrom.
Der Schätzer 63 kann mit einer Vielzahl bereitgestellter Trainingsverläufe kineti scher Größen kin trainiert werden. Mittels eines Clusteralgorithmus (z.B. k-me- ans) werden die zeitlichen Verläufe geclustert, und zu den identifizierten Clustern diese Cluster charakterisierende Größen im Schätzer 63 gespeichert. Schätzer 63 kann dann für einen bereitgestellten zeitlichen Verlauf der kinetischen Größe kin z.B. diejenige charakterisierende Größe auswählen, die den geringsten Ab stand zum zeitlichen Verlauf der kinetischen Größe kin aufweiset. Die Klassifika tion i kann dann als ein diese charakterisierende Größe charakterisierende Zahl gewählt werden. Die im Clusteralgorithmus ermittelten charakterisierenden Grö ßen sind vorzugsweise auch im Integrator 65 hinterlegt, um in die Ermittlung der Ausgangsgröße y einzugehen. The estimator 63 can be trained with a large number of provided training courses of kinetic quantities kin. By means of a cluster algorithm (e.g. k-means), the time courses are clustered, and quantities characterizing these clusters are stored in the estimator 63 for the identified clusters. Estimator 63 can then for a provided time course of the kinetic variable kin e.g. select the characterizing variable that has the smallest distance to the temporal course of the kinetic variable kin. The classification i can then be selected as a number that characterizes this variable. The characterizing variables determined in the cluster algorithm are preferably also stored in the integrator 65 in order to be included in the determination of the output variable y.
Figur 11 zeigt einen möglichen Aufbau einer Trainingsvorrichtung 140 zum Trai nieren des Intentionsschätzers 60. Dieser wird mit Parametern f parametriert, die von einem Parameterspeicher P bereitgestellt werden. FIG. 11 shows a possible construction of a training device 140 for training the intention estimator 60. This is parameterized with parameters f which are provided by a parameter memory P.
Trainingsvorrichtung 140 umfasst einen Generator 71, der eine Vielzahl von Sze nen sz generiert. Diese werden einem Renderer 72 zugeführt, der hieraus eine Folge semantischer Segmentierungen SEM ermittelt. Diese werden unmittelbar dem Objektdetektor 62 des Intentionsschätzers 60 zugeführt. Im weiteren Verlauf ermittelt der Intentionsschätzer 60 aus der Folge semantischer Segmentierungen SEM die Folge kinetischer Größen kin, eine Liste detektierter Objekte obj und eine zugehörige Klassifikation i. Diese werden einem Vergleicher 74 zugeführt. Exercise device 140 includes a generator 71 that generates a plurality of scenes sz. These are fed to a renderer 72, which generates a Sequence of semantic segmentations SEM determined. These are fed directly to the object detector 62 of the intention estimator 60. Subsequently, the intention estimator 60 determines from the sequence of semantic segmentations SEM the sequence of kinetic variables kin, a list of detected objects obj and an associated classification i. These are fed to a comparator 74.
Mit der generierten Szene sz stellt Generator 71 auch die zugehörige Liste von Objekten als Soll-Objektliste objs und die zugehörige Liste kinetischer Größen als Sollwerte der kinetischen Größen kins dem Vergleicher 74 zugeführt. With the generated scene sz, the generator 71 also supplies the associated list of objects as a target object list objs and the associated list of kinetic variables as target values of the kinetic variables kins to the comparator 74.
Abhängig von einer Übereinstimmung zwischen Objekten obj und Soll-Objektliste objs sowie einer Übereinstimmung zwischen den kinetischen Größen kin und den entsprechenden Sollwerten kins werden neue Parameter f' ermittelt, die dem Parameterspeicher P übermittelt werden und dort Parameter f ersetzen. Depending on a correspondence between objects obj and target object list objs and a correspondence between the kinetic variables kin and the corresponding target values kins, new parameters f 'are determined, which are transmitted to the parameter memory P and replace parameter f there.
Ist der Objektdetektor 62 beispielsweise ein neuronales Netz, kann dies durch Ermittlung von Gradienten zur Minimierung einer vorgebbaren Kostenfunktion und Rückwärtspropagation geschehen. If the object detector 62 is, for example, a neural network, this can be done by determining gradients to minimize a predeterminable cost function and backward propagation.
In diesem Fall kann zur Ermittlung der Übereinstimmung zwischen Objekten obj und Soll-Objektliste objs vorgesehen sein, die Objekte der Soll-Objektliste objs und die Objekte obj (inklusive Wahrscheinlichkeiten) zueinander zuzuordnen (d.h. ein Assoziationsproblem lösen). Anschließend wird ein Regressionsfehler der Parameter der Objekte zur Kostenfunktion hinzugefügt, durch deren Optimie rung die neuen Parameter f' ermittelt werden. Dieser Regressionsfehler kann z.B. durch eine Quadratsumme von Differenzen der Geschwindigkeiten, Be schleunigung und Positionen gegeben sein. In this case, to determine the correspondence between objects obj and target object list objs, provision can be made for the objects in the target object list objs and the objects obj (including probabilities) to be assigned to one another (i.e. to solve an association problem). A regression error of the parameters of the objects is then added to the cost function, through whose optimization the new parameters f 'are determined. This regression error can e.g. be given by a sum of squares of differences in speeds, acceleration and positions.
Schließlich benutzt man die Objektwahrscheinlichkeiten um Falschpositive / Falschnegative zu bewerten. Das heißt, es wurde ein Objekt erkannt obwohl kein Objekt da ist, und es wurde ein Objekt übersehen. Finally, the object probabilities are used to evaluate false positives / false negatives. This means that an object was recognized even though no object is there, and an object was overlooked.
Im Ausführungsbeispiel kann von einer maximalen Anzahl von sichtbaren Objek ten ausgegangen werden. Das heißt, es werden die Wahrscheinlichkeiten von einer vorgebbaren Anzahl, z.B. 100, möglicher Objekten in der Szene berechnet. Überschreitet diese Wahrscheinlichkeit dann einen vorgebbaren Schwellwert werden diese Kandidaten als identifizierte Objekte identifiziert, wodurch sicherge stellt ist, dass kein Objekt übersehen wird. Es ist dann möglich, dass für alle erkannten Objekte ein bestimmter Regressi onsfehler durch die Objektwahrscheinlichkeit geteilt wird, für alle anderen fehler haft erkannten Objekte wird der Regressionsfehler mit der Wahrscheinlichkeit multipliziert. Die vom Trainingssystem 140 ausgeführten Verfahren können als Computerpro gramm implementiert auf einem maschinenlesbaren Speichermedium 146 hinter legt sein und von einem Prozessor 145 ausgeführt werden. In the exemplary embodiment, a maximum number of visible objects can be assumed. This means that the probabilities of a specifiable number, for example 100, of possible objects in the scene are calculated. If this probability then exceeds a predeterminable threshold value, these candidates are identified as identified objects, which ensures that no object is overlooked. It is then possible for a certain regression error to be divided by the object probability for all objects recognized; the regression error is multiplied by the probability for all other incorrectly recognized objects. The methods executed by the training system 140 can be implemented as a computer program stored on a machine-readable storage medium 146 and executed by a processor 145.
Der Begriff„Computer“ umfasst beliebige Geräte zur Abarbeitung vorgebbarer Rechenvorschriften. Diese Rechenvorschriften können in Form von Software vor liegen, oder in Form von Hardware, oder auch in einer Mischform aus Software und Hardware. The term “computer” encompasses any device for processing specifiable arithmetic rules. These calculation rules can be in the form of software, or in the form of hardware, or also in a mixed form of software and hardware.
Bezugszeichenliste List of reference symbols
A Ansteuersignal A control signal
P Parameterspeicher P parameter memory
S Sensorsignale S sensor signals
SEM semantische Segmentierung SEM semantic segmentation
SEMk erste semantische SegmentierungSEM k first semantic segmentation
SEMk+1 zweite semantische Segmentierung dritte semantische SegmentierungSEM k + 1 second semantic segmentation third semantic segmentation
SEMs Soll-Segmentierung SEMs target segmentation
i Klassifikation i classification
kin kinetische Größe kin kinetic quantity
kins Sollwert der kinetischen Größe kink+1 erste kinetische Größe kins Setpoint of the kinetic variable kin k + 1 first kinetic variable
zweite kinetische Größe obj Objekt second kinetic quantity obj object
objs Soll-Objektliste objs target object list
r Ruck r jerk
st Straße st street
sz Szene sz scene
t Zeit t time
x Eingangsbild x input image
xk erstes Eingangsbild x k first input image
xk+1 zweites Eingangsbild x k + 1 second input image
xk+2 drittes Eingangsbild x k + 2 third input image
y Ausgangsgröße y output variable
f Parameter f parameters
f' neue Parameter f 'new parameters
10 Aktor 10 actuator
10a Anzeigeeinheit 10a display unit
11 Fertigungsmaschine 11 manufacturing machine
12 Fertigungserzeugnis 12 Manufactured Product
20 Umgebung 20 environment
30 Sensor 30 sensor
40 Steuerungssystem 40 control system
45 Prozessor 46 maschinenlesbares Speichermedium45 processor 46 machine-readable storage medium
50 Empfangseinheit 50 receiving unit
60 Intentionsschätzer 60 intention estimator
61 Segmentierer 61 segmenter
62 Objektdetektor 62 Object Detector
63 Schätzer 63 estimators
64 Klassifikator 64 classifier
65 Integrator 65 integrator
71 Generator 71 generator
72 Renderer 72 renderers
74 Vergleicher 74 comparators
80 Umformeinheit 80 forming unit
100 Kraftfahrzeug 100 motor vehicle
140 Trainingsvorrichtung 140 exercise device
145 Prozessor 145 processor
146 maschinenlesbares Speichermedium 146 machine-readable storage medium
200 Fertigungssystem 200 manufacturing system
249 Nutzer 249 users
250 persönlicher Assistent 250 personal assistant
300 Zugangssystem 300 access system
400 Überwachungssystem 400 surveillance system
401 Tür 401 door

Claims

Ansprüche Expectations
1. Computerimplementiertes Verfahren zum Klassifizieren zukünftiger Trajekto- rienverläufe von Objekten (obj) innerhalb eines von einem Sensor (30) er fassten Bildes (x), mit den Schritten: 1. Computer-implemented method for classifying future trajectories of objects (obj) within an image (x) captured by a sensor (30), with the following steps:
1) Ermitteln einer texturlosen Darstellung (SEM), insbesondere einer seman tischen Segmentierung, des Bildes (x); 1) determining a textureless representation (SEM), in particular a semantic segmentation, of the image (x);
2) Identifizieren von Objekten innerhalb des Bildes (x); 2) identifying objects within the image (x);
3) Ermitteln von kinetischen Größen (kin), also von Größen, die ihren kineti schen Zustand charakterisieren, wie insbesondere aktuelle kinetische Grö ßen, der identifizierten Objekte; und 3) Determination of kinetic variables (kin), that is to say variables that characterize their kinetic state, such as, in particular, current kinetic variables of the identified objects; and
4) Zuordnen der ermittelten kinetischen Größen (kin) der identifizierten Ob jekte (obj) zu einer Klasse (i) einer vorgebbaren Mehrzahl von Klassen. 4) Assignment of the determined kinetic variables (kin) of the identified objects (obj) to a class (i) of a predeterminable plurality of classes.
2. Verfahren nach Anspruch 1, wobei die Ermittlung kinetischer Größen der identifizierten Objekte aus einer Mehrzahl von insbesondere unmittelbar auf einander folgenden Bildern einer erfassten Sequenz von Bildern erfolgt. 2. The method according to claim 1, wherein the determination of kinetic variables of the identified objects takes place from a plurality of images, in particular immediately following one another, of a captured sequence of images.
3. Verfahren nach Anspruch 2, wobei zu der Sequenz von Bildern (x) eine Se quenz von texturlosen Darstellungen (SEM) der jeweiligen Bilder (x) ermittelt wird, und wobei die Ermittlung der kinetischen Größen (kin) der identifizier ten Objekte (obj) aus der Sequenz texturloser Darstellungen (SEM) erfolgt. 3. The method according to claim 2, wherein a sequence of textureless representations (SEM) of the respective images (x) is determined for the sequence of images (x), and wherein the determination of the kinetic variables (kin) of the identified objects (obj ) from the sequence of textureless representations (SEM).
4. Verfahren nach Anspruch 2 oder 3, wobei zu der Sequenz von Bildern (x) eine Sequenz jeweiliger kinetischer Größen (kin) ermittelt wird, und wobei die Zuordnung zu der Klasse (i) abhängig von der Sequenz der kinetischen Größen (kin) erfolgt. 4. The method according to claim 2 or 3, wherein a sequence of respective kinetic variables (kin) is determined for the sequence of images (x), and the assignment to the class (i) takes place depending on the sequence of kinetic variables (kin) .
5. Verfahren nach Anspruch 4, wobei die Zuordnung zu der Klasse (i) mittels eine Mehrzahl von Clustern charakterisierenden Größen, insbesondere Clus- terzentren und Clusterradien, erfolgt, welche mittels eines Clusteralgorith mus auf einem Cluster-Trainingsdatensatz ermittelt wurden. 5. The method according to claim 4, wherein the assignment to the class (i) by means of a plurality of variables characterizing clusters, in particular clusters ter centers and cluster radii, which were determined by means of a cluster algorithm on a cluster training data set.
6. Intentionsschätzer (60) zum Klassifizieren zukünftiger Trajektorienverläufe von Objekten innerhalb des von dem Sensor (30) erfassten Bildes (x), wel cher eingerichtet ist, das Verfahren nach einem der Ansprüche 1 bis 5 aus zuführen, umfassend: 6. Intention estimator (60) for classifying future trajectory courses of objects within the image (x) captured by the sensor (30), which is set up to carry out the method according to one of claims 1 to 5, comprising:
- einen Segmentierer (61), der eingerichtet ist, die texturlose Darstellung (SEM) des Bildes (x) zu ermitteln; - A segmenter (61) which is set up to determine the textureless representation (SEM) of the image (x);
- einen Objektdetektor (62), der eingerichtet ist, Objekte (obj) innerhalb des Bildes (x) zu identifizieren und kinetische Größen (kin) der identifizierten Ob jekte (obj) zu ermitteln; und - An object detector (62) which is set up to identify objects (obj) within the image (x) and to determine kinetic variables (kin) of the identified objects (obj); and
- einen Schätzer (63), der eingerichtet ist, die kinetischen Größen (kin) der identifizierten Objekte (obj) zu einer Klasse (i) einer vorgebbaren Mehrzahl von Klassen zuzuordnen. - An estimator (63) which is set up to assign the kinetic variables (kin) of the identified objects (obj) to a class (i) of a specifiable plurality of classes.
7. Computerimplementiertes Verfahren zum Trainieren des Intentionsschätzers (60) nach Anspruch 6, umfassend die Schritte: The computer-implemented method of training the intention estimator (60) of claim 6, comprising the steps of:
- Generieren einer Mehrzahl von Szenen (sz); - Generating a plurality of scenes (sz);
- Erzeugen texturfreier Darstellungen (SEM) entsprechend von einer vorgeb baren Kameraposition aus aufgenommenen Bildern der Szene (sz); - Generation of texture-free representations (SEM) correspondingly from a prescribable camera position from recorded images of the scene (sz);
- Bereitstellen eines Trainingsdatensatzes zum Trainieren des Intentions schätzers (60), umfassend die erzeugten texturfreien Darstellungen (SEM) und - Providing a training data set for training the intention estimator (60), comprising the generated texture-free representations (SEM) and
a) aus den jeweiligen Szenen generierte Sollwerte der kinetischen Größen (kins), und/oder a) setpoint values of the kinetic variables (kins) generated from the respective scenes, and / or
b) aus den jeweiligen Szenen generierte Sollwerten der in der texturfreien Darstellung (SEM) aus der vorgebbaren Kameraposition sichtbaren Objekte (objs). b) setpoint values generated from the respective scenes of the objects (objs) visible in the texture-free representation (SEM) from the specifiable camera position.
8. Verfahren nach Anspruch 7, wobei mittels des Trainingsdatensatzes der Ob jektdetektor (62) trainiert wird. 8. The method according to claim 7, wherein the object detector (62) is trained by means of the training data set.
9. Verfahren nach Anspruch 7 oder 8, wobei in den jeweiligen Szenen enthal tene zeitliche Verläufe der kinetischen Größe (kin) durch zeitliche Verläufe eines entsprechenden Rucks (r) dargestellt sind. 9. The method according to claim 7 or 8, wherein in the respective scenes contained time courses of the kinetic variable (kin) by time courses a corresponding jerk (r) are shown.
10. Trainingsvorrichtung (140), welche eingerichtet ist, das Verfahren nach ei nem der Ansprüche 7 bis 9 auszuführen. 10. Training device (140) which is set up to carry out the method according to one of claims 7 to 9.
11. Computerprogramm, welches eingerichtet ist, das Verfahren nach einem der Ansprüche 1 bis 5 oder 7 bis 9 auszuführen. 11. Computer program which is set up to carry out the method according to one of claims 1 to 5 or 7 to 9.
12. Maschinenlesbares Speichermedium (46, 146), auf dem das Computerpro- gramm nach Anspruch 11 gespeichert ist. 12. Machine-readable storage medium (46, 146) on which the computer program according to claim 11 is stored.
PCT/EP2020/064311 2019-05-29 2020-05-22 Method and apparatus for safely predicting a trajectory WO2020239632A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102019207947.4A DE102019207947A1 (en) 2019-05-29 2019-05-29 Method and device for the reliable prediction of a trajectory
DE102019207947.4 2019-05-29

Publications (1)

Publication Number Publication Date
WO2020239632A1 true WO2020239632A1 (en) 2020-12-03

Family

ID=70847389

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2020/064311 WO2020239632A1 (en) 2019-05-29 2020-05-22 Method and apparatus for safely predicting a trajectory

Country Status (2)

Country Link
DE (1) DE102019207947A1 (en)
WO (1) WO2020239632A1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017223264A1 (en) 2017-12-19 2019-06-19 Robert Bosch Gmbh Method and device for driving an actuator

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017223264A1 (en) 2017-12-19 2019-06-19 Robert Bosch Gmbh Method and device for driving an actuator

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
BARADEL FABIEN ET AL: "Object Level Visual Reasoning in Videos", 6 October 2018, PERVASIVE: INTERNATIONAL CONFERENCE ON PERVASIVE COMPUTING; [LECTURE NOTES IN COMPUTER SCIENCE; LECT.NOTES COMPUTER], SPRINGER, BERLIN, HEIDELBERG, PAGE(S) 106 - 122, ISBN: 978-3-642-17318-9, XP047489334 *
LUC PAULINE ET AL: "Predicting Deeper into the Future of Semantic Segmentation", 2017 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION (ICCV), IEEE, 22 October 2017 (2017-10-22), pages 648 - 657, XP033282920, DOI: 10.1109/ICCV.2017.77 *
SEYED SHAHABEDDIN NABAVI ET AL: "Future Semantic Segmentation with Convolutional LSTM", ARXIV.ORG, CORNELL UNIVERSITY LIBRARY, 201 OLIN LIBRARY CORNELL UNIVERSITY ITHACA, NY 14853, 20 July 2018 (2018-07-20), XP081250221 *
VERTENS JOHAN ET AL: "SMSnet: Semantic motion segmentation using deep convolutional neural networks", 2017 IEEE/RSJ INTERNATIONAL CONFERENCE ON INTELLIGENT ROBOTS AND SYSTEMS (IROS), IEEE, 24 September 2017 (2017-09-24), pages 582 - 589, XP033265983, DOI: 10.1109/IROS.2017.8202211 *

Also Published As

Publication number Publication date
DE102019207947A1 (en) 2020-12-03

Similar Documents

Publication Publication Date Title
DE102019209565A1 (en) Method and device for checking the robustness of an artificial neural network
WO2019063416A1 (en) Method and device for operating a driver assistance system, and driver assistance system and motor vehicle
DE102007031302A1 (en) Device for detecting and / or classifying motion patterns in a sequence of images from a surveillance scene, method and computer program
DE102018128563A1 (en) METHOD AND DEVICE FOR AUTONOMOUS SYSTEM PERFORMANCE AND COMPARISON
WO2020260016A1 (en) Method and apparatus for training a machine learning system
WO2010139495A1 (en) Method and apparatus for classifying situations
EP2483834B1 (en) Method and apparatus for the recognition of a false object detection in an image
WO2021165077A1 (en) Method and device for evaluating image classifiers
EP3584748A1 (en) Method for generating a test data set, method for testing, method for operating a system, device, control system, computer program product, computer readable medium, generation and use
WO2020239632A1 (en) Method and apparatus for safely predicting a trajectory
DE102019209463A1 (en) Method for determining the trust value of an object of a class
WO2021047770A1 (en) Method for analysing image information using assigned scalar values
DE102022201679A1 (en) Method and device for training a neural network
DE102020200876B4 (en) Method for processing sensor data from a sensor system in a vehicle
WO2022106414A2 (en) Method and system for annotating sensor data
DE102019209228A1 (en) Method and device for checking the robustness of an artificial neural network
DE102020203998A1 (en) Method and device for operating a classifier
DE102020208309A1 (en) Method and device for creating a machine learning system
DE102019209152A1 (en) Method and device for the secure identification of objects in video images
DE102019209153A1 (en) Method and device for the reliable classification and / or segmentation of images
EP3627370B1 (en) Method and system for processing person-related optical and / or acoustic signals
DE102022213065A1 (en) Silent testing of vehicle neural networks for identification of unknown objects
WO2023247102A1 (en) Method for controlling a robot device
DE102022213064A1 (en) Detection of unknown objects using neural networks for vehicles
EP4224436A1 (en) Method and computer program for characterizing future trajectories of road users

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20728009

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20728009

Country of ref document: EP

Kind code of ref document: A1