EP3721370A1 - Trainieren und betreiben eines maschinen-lern-systems - Google Patents

Trainieren und betreiben eines maschinen-lern-systems

Info

Publication number
EP3721370A1
EP3721370A1 EP18789090.0A EP18789090A EP3721370A1 EP 3721370 A1 EP3721370 A1 EP 3721370A1 EP 18789090 A EP18789090 A EP 18789090A EP 3721370 A1 EP3721370 A1 EP 3721370A1
Authority
EP
European Patent Office
Prior art keywords
depth
depth map
learning system
machine learning
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
EP18789090.0A
Other languages
English (en)
French (fr)
Inventor
Masato Takami
Uwe Brosch
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of EP3721370A1 publication Critical patent/EP3721370A1/de
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0011Planning or execution of driving tasks involving control alternatives for a single driving scenario, e.g. planning several paths to avoid obstacles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • G06V10/811Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Definitions

  • the present invention relates generally to the field of artificial intelligence.
  • the invention relates to a method for teaching a
  • Machine learning system a method for operating a machine learning system and a machine learning system.
  • Machine learning systems and / or artificial intelligence systems are generally used here, which, for example on the basis of image data recorded with a camera of the motor vehicle, classify the objects recognizable in the image data and thus ultimately the Automatically identify objects.
  • Such machine learning systems for detecting objects may, for example, have a neural network and / or a neural network.
  • the object recognition by means of a machine learning system can also be improved by evaluating data of other sensors in addition to image data.
  • Such systems are also called multi-path systems or multi-path systems.
  • Such a system can be the environment
  • a learning system such as a neural network, which detects the environment based on image information from a single camera, be supplemented by a module which 3D information and / or temporal movement information recorded and interpreted.
  • a module which 3D information and / or temporal movement information recorded and interpreted.
  • Training data are taught. This can be a challenge especially with multi-path systems.
  • a machine learning system can be extensively trained and / or trained, so that overall the machine learning system and / or an object recognition based on the machine learning system can be improved.
  • a method for teaching and / or training a machine learning system is proposed.
  • image data is fed into a machine learning system while processing and / or processing at least part of the image data.
  • the method is characterized in particular by the following steps:
  • each of the depth information values correlates with a distance to an object
  • Image data and based on the processed depth information values of the at least one depth map, adjusting, varying and / or changing at least one parameter value of at least one parameter of the machine learning system, wherein the adapted at least one
  • Parameter value an interpretation of input data by the machine Learning system and / or output of the machine learning system.
  • the machine learning system can designate an arbitrarily designed artificial intelligence system.
  • the ML system can be designed as a classifier, for example as a neural network.
  • the ML system can be designed as a multipath system and / or as a multipath system and be set up to process, analyze and / or interpret depth data in addition to image data.
  • the ML system can be embodied as a one-part system or, for example, have a plurality of modules which can each process different data.
  • the ML system may include a first module for processing image data and a second module for processing depth maps.
  • a supply of data to the ML system such as via a suitable data connection and / or a suitable interface of the ML system.
  • the data for teaching the ML system forward may be propagated in the context of a forward propagation and / or in a backward direction in the context of a backward propagation through the ML system.
  • the parameter value of the at least one parameter of the ML system can be iteratively and / or successively adapted, changed and / or varied such that a reaction and / or the interpretation of any further input data with respect to an intended use of the ML system improves / or optimized.
  • the object recognition so can with the method of
  • Parameter value of the at least one parameter can be adjusted, changed and / or varied so that ultimately the precision of the object recognition is improved.
  • the "interpretation of the input data by the ML system” can mean that the system processes the input data and a in particular by the parameter value of the at least one parameter at least partially influenced output provides.
  • the ML system is a classifier
  • the system may output at least one class name, class, and / or at least one probability value for a class of objects.
  • the parameter may therefore generally denote a quantity, in particular a mathematical quantity, based on which the ML system supplied it
  • Input data such as sensor data, image data and / or depth maps, analyzed and / or interpreted.
  • the above-mentioned image data and / or the at least one depth map may in particular designate training data of the ML system.
  • the image data and / or the depth map may also be labeled.
  • the image data and / or the depth map may also contain information regarding, for example, the objects located in the image data and / or the depth map.
  • the ML system may also also be labeled.
  • Training purposes determine a recognition error and the at least one parameter value of the at least one parameter can be adjusted while minimizing the recognition error to learn the ML system and / or to optimize the object recognition.
  • the depth map may designate a disparity map that may represent data from any proximity information acquisition sensor.
  • the depth map may contain information regarding a distance to an object, i. Distance information, represent, include and / or exhibit.
  • the depth map can be spatial
  • the depth information values of the depth map may indicate distance data.
  • the input data may designate any sensor data, such as image data of a camera and / or a depth map of a distance sensor, which are evaluated, analyzed and / or interpreted by the ML system, for example for object recognition.
  • the input data can not be labeled and / or designate data which are fed to the ML system after the ML system has been trained for actual object recognition.
  • Synthetic generation can be understood as artificial production. Synthetically generated and / or artificially generated depth information values may therefore denote distance data that was not acquired by a sensor and / or distance sensor but, for example, was generated manually and / or by machine.
  • Training method for an ML system such as a neural network, proposed, wherein the system both image data, such as images of a camera, as well as an at least partially synthetically generated
  • Depth card be supplied.
  • the parameter value of the at least one parameter of the ML system is adapted to teach the ML system.
  • several or all parameters of the ML system can be adapted so that, for example, object recognition by the ML system is improved.
  • the ML system can be trained with image data and exclusively with synthetically generated depth maps.
  • real depth maps can be used for training, which were acquired with a sensor.
  • the system for teaching synthetically generated image data can be supplied.
  • Synthetically generating the depth map advantageously produces and trains an artificial scenario in which, for example, interpretation of the image data and interpretation of the depth map by the ML system would lead to different responses and / or results. Furthermore, a depth map can be synthesized synthetically compared to image data with little effort, speed and cost efficiency since it is less complex compared to image data. That way you can
  • cost-effective depth maps are generated, which add to the image data
  • Delusions be trained. For example, a scenario can be modeled in which a camera made a picture of a billboard becomes, on which a road is shown. An interpretation of only this image of a road could lead to the ML system interpreting the road as a real road.
  • a learning system is usually done by processing large amounts of training data
  • Map scenarios in the training data There may therefore be objects and / or scenarios that are unknown to the system.
  • the present invention therefore makes it possible to train with additional synthetically generated depth maps a correct assessment of objects and / or scenarios that are not included in a conventional training data set of real data.
  • the parameters of the system such as weights of a neural network, could be determined and / or chosen such that the system is complex
  • Depth maps in the image data more information may be present. When using the trained ML system, this may result in the system following an interpretation of the image data, for example when inter-divergent image data and depth maps are being interpreted, since such
  • Deviations in real datasets are typically underrepresented, rarely occurrences and therefore possibly insufficiently trained.
  • the use of a multipath system which, for example, detects objects based on data from different sensors, such as image data and depth maps, can generally enable a redundant safeguarding of the object recognition. Since it is relatively unlikely that two different recognition paths of the system, such as a first path based on the image data and a second path based on the depth maps, are erroneous, each of the paths can serve as a plausibility check of the other path, whereby overall the object recognition can be improved.
  • inventive method be trained.
  • Depth maps to train the system The biggest gain is in the treatment of so-called corner cases or rare special cases where the image data would allow a different conclusion than the depth map, such as the optical illusions described above. Such cases are very rare and difficult to learn by simply feeding real scenes into the system. In general, therefore, a learning system and / or an ML system can be decisively improved with the present invention, which must reliably decide on the basis of visual data and / or image data as to whether it is a relevant object.
  • the method further comprises the step of associating the image data with the at least one depth map.
  • the parameter value of the machine learning system is dependent on the processed image data and in dependence of
  • the parameter value of the at least one parameter can be matched to both data, ie both the image data and the depth map.
  • a multi-path system can be comprehensively trained, which analyzes and / or interprets an environment both based on image data, ie based on visual information, and based on a depth map, ie based on spatial information.
  • the depth map comprises a matrix, an array and / or a list of entries, each entry representing a pixel of a device for acquiring depth information, spatial information and / or 3D information.
  • a value of each entry is a depth information value for indicating a distance between the device and an object.
  • the depth map may in particular designate a disparity map and / or the depth information values may designate disparity values and / or distance data.
  • the at least one depth map represents data of a stereo camera, a multi-view camera, a
  • the depth map may represent data of any sensor for acquiring distance information, distance data, and / or space information.
  • the image data may designate data of any optical sensor, such as a camera, an RGB camera, a color camera, a grayscale camera, and / or an infrared camera.
  • the step of synthetically generating the at least one portion of the at least one depth map further comprises the substeps of defining, establishing, and / or determining a plurality of depth information values of the depth map and storing the plurality of defined depth information values in the depth map.
  • Depth information values of the synthetically generated depth map By setting at least about 1% of the depth information values can be ensured that a sufficiently large and / or massive object is artificially generated in the depth map, so that when feeding a real depth map in the trained ML system is not falsely a statistical noise of the data is recognized as an object. Overall, the training process as well as the object recognition with the trained system can be further improved. According to one embodiment of the invention, the defined
  • Depth information values of at least a subset of entries of the depth map which subset represents a contiguous pixel area of pixels of a depth information acquisition device such that by defining the depth information values, distance information is generated with respect to a geometrically contiguous object in the depth map.
  • a massive and / or relatively large object in the depth map can be artificially generated, which can represent and / or represent a real object.
  • the artificially generated in the depth map object can have any shape, contour and / or size.
  • the object can be generated at any position in the depth map.
  • several objects can be generated in a single depth map, for example, at different positions.
  • this is geometric
  • Deviation between the image data and the at least one depth map is generated.
  • the discrepancy between the depth map and the image data may mean that the object exists only in the depth map.
  • the discrepancy may mean that different objects are present in the image data and the depth map.
  • a roadway may be recognizable, which, however, comes only from a billboard, whereas in the depth map, the billboard as a solid object at a certain distance may be recognizable.
  • the parameter value of the at least one parameter of the machine learning system is adapted such that, in the event of a discrepancy between the image data and the at least one depth map, an interpretation of the depth map by the machine learning system over interpretation of the image data is preferred by the machine learning system.
  • the ML system provides a corresponding output, which can cause the vehicle to perform a braking operation and / or an evasive maneuver.
  • a reliability and / or precision of the object recognition can be increased by the trained ML system. This can also be in a use of such trained ML system in a vehicle the
  • the distance can be a fictitious distance of a fictional
  • the distance to the object can lie in a safety-relevant area of a vehicle, so that the ML system can be extensively trained for use in a vehicle.
  • the ML system can be extensively trained for use in a vehicle.
  • Depth map represents, the corresponding distance of the synthetically generated object can be selected. For example, if the depth map represents data from an ultrasound-based distance measuring device, then the object synthesized in the depth map can be generated at a smaller pitch than, for example, a radar-based one
  • Distance measuring device would be the case so as to take into account the shorter range of the ultrasonic distance measuring device.
  • the method further comprises the following steps:
  • Depth maps defining a plurality of depth information values of each depth map
  • the training of the ML system can be improved. Also, so many different scenarios can be trained with many different objects, so that thereby the object recognition can be significantly improved with the trained ML system.
  • the objects generated in the synthetically generated depth maps differ with regard to a contour, a dimension, a position in the respective depth maps and / or with respect to a distance from one another.
  • objects that are different from one another in the depth maps can be generated, which may allow the training of different scenarios and / or the recognition of different objects.
  • the objects produced in the depth maps may, for example, have a round, oval, angular, polygonal, quadrangular, triangular or any other contour and / or geometry.
  • the different objects can be generated in particular randomly. For example, certain parameters of the objects, such as dimensions, sizes, geometries, positions in the depth maps, or the like, may be varied randomly, such as using a random number generator.
  • the objects generated in the depth maps can originate from scanned real objects. In this way, large amounts of different depth maps with different objects can be efficiently and quickly generated and used to train the ML system.
  • the machine learning system is an artificial neural network, in particular a multilayer artificial neural network.
  • the at least one parameter of the machine learning system is a weight of a node of an artificial neural network.
  • the neural network may be, for example, a linear, a non-linear, a recurrent and / or a convolutional neural network.
  • a second aspect of the invention relates to the use of at least one at least partially synthetically generated depth map in combination with image data for teaching and / or training a machine learning system, in particular for teaching an ML system, as described above and below.
  • a third aspect of the invention relates to a method of operating a machine learning system for a motor vehicle, wherein the machine learning system is taught by a method as described above and below.
  • the method of operating the ML system may, as it were, denote a method of recognizing objects using the ML system.
  • a fourth aspect of the invention relates to a machine learning system for
  • Fig. 1 shows a machine learning system according to an embodiment of the invention.
  • FIG. 2 is a flowchart illustrating steps of a method of teaching a machine learning system according to the present invention
  • FIG. 3 is a flowchart illustrating steps of a method of operating a machine learning system according to one embodiment of the present invention
  • Fig. 1 shows a machine learning system 10 according to an embodiment of the invention.
  • the ML system 10 may be an artificial intelligence system 10 of any type.
  • the ML system 10 may include at least one neural network 12.
  • the neural network 12 can be multi-layered and be a linear, non-linear, recurrent and / or folding neural network 12.
  • the neural network 12 may include one or more convolutional layers.
  • the ML system 10 of FIG. 1 is designed as a multi-path system 10, image data 14 being input via a first path 11a as input variables or
  • Input data can be fed into and processed by the system 10.
  • depth maps 16a, 16b and / or distance data 16a, 16b can be fed into and processed by the system 10.
  • the system 10 shown in FIG. 1 has, by way of example, three modules 12a, 12b, 12c.
  • a first module 12 a is set up to process, analyze and / or interpret the image data 14 and to determine and / or output a first interpretation 18 a based on the image data 14.
  • the image data 14 may be, for example, images of a camera, an RGB camera, a color camera, a grayscale camera and / or an infrared camera.
  • the second module 12b is configured to process, analyze and / or interpret the depth maps 16a, 16b and to determine and / or output a second interpretation 18b based on the depth maps 16a, 16b.
  • the depth maps 16b denote real depth maps 16b, which are approximately Data from a stereo camera, a multi-view camera, a
  • the depth maps 16b may be from an information source from which the depth information may be extracted, such as the. a mono camera unit with structure-from-motion algorithm.
  • the depth maps 16a designate synthetically generated depth maps 16a, which are supplied to the system 10 for training purposes, as described in detail below. The depth maps 16a may therefore be generated artificially and data from a stereo camera, a multi-view camera, a distance measuring device, a radar-based
  • the two interpretations 18a, 18b are supplied by way of example in FIG. 1 to a third module 12c, which determines and / or outputs a final interpretation 18c based on the first and second interpretation 18a, 18b.
  • the three modules 12a, 12b, 12c can each be separate and / or independent modules 12a, 12b, 12c. Alternatively, the modules 12a, 12b or all three modules 12a, 12b, 12c may be combined into a single module. In particular, the modules 12a-c can each be designed as neural networks 12a-c and / or the modules 12a-12c can be designed as a common neural network 12.
  • image data 14 are supplied to the system via the first path 11a and / or fed via a corresponding interface of the system 10.
  • Synthesized depth maps 16a are also supplied to the system 10 via the second path 11b and / or fed in via a corresponding interface.
  • real depth maps 16b can also be supplied to the system 10.
  • the neural networks 12a, 12b respectively process the data supplied to you, ie the image data 14, the synthetically generated depth maps 16a and real depth maps 16b.
  • the image data 14 and / or the depth maps 16a, 16b can be labeled, ie have information regarding their content, such as objects contained in the image data 14 and / or depth maps 16a, 16b.
  • the neural network 12a may be capable of forward propagation of the image data 14
  • Determine and / or output interpretation 18a which may be, for example, a class of objects and / or probability values.
  • Interpretation 18a may also be based on the labeling of the image data
  • the neural network 12b may determine and / or output the interpretation 18b, which may include a class of objects and / or
  • Probability values can be. Also for the interpretation 18b, a recognition error can be determined based on the label of the depth maps 16a, 16b.
  • the neural networks 12a, 12b can then be operated in reverse propagation, wherein parameter values of parameters of the neural networks 12a, 12b, which may denote in particular weights of nodes of the neural networks 12a, 12b, are each adapted, changed and / or varied while minimizing the recognition errors become.
  • the interpretations 18a, 18b may further be supplied to the neural network 12c to detect and / or output a final interpretation 18c, again detecting a recognition error.
  • the neural network 12c may also be operated in reverse propagation, and while minimizing the recognition error, the parameter values of the parameters and / or the weights of the nodes of the neural network 12c may be adapted, varied and / or varied.
  • the image data 14 and the depth maps 16a, 16b may be propagated together through the system 10 and the entire neural network 12 to obtain the interpretation 18c.
  • the neural network 12 may then also be operated in reverse propagation and the weights of the nodes of the overall system 10 and / or the entire neural network 12 can be adjusted, varied and / or changed while minimizing the recognition error.
  • the system 10 is supplied with image data 14 and with synthetically generated depth maps 16a and the parameter values of the parameters of the system, in particular the weights of the nodes of the neural network 12, are adapted for teaching the system 10 and / or the neural network 12 , The adapted in this way
  • Parameter values and / or weights then influence the interpretation and / or response of the system 10 to any input data, such as images from a camera in a vehicle and sensor data from an ultrasound, radar, or laser proximity sensor.
  • the trained machine learning system 10 is with
  • Image data 14 for example from a camera
  • depth maps 16b with
  • the depth maps 16b can be approximately from one
  • Stereo camera come. Based on the data from both
  • Information sources i. the image data 14 and the depth maps 16b
  • the overall system 10 analyzes the environment.
  • confusion and / or incorrect interpretation 18a can occur. If e.g. Persons can be seen on a billboard, the image-based part and / or the first path 11a of the system 10 can not distinguish between a real person and a person on the poster.
  • the system 10 can not decide what it is for items and objects that are not included in training. It may therefore happen that an unknown gray box is recognized in the image data 14 as a gray floor, a bank or a door. In order to support such decision cases, it may be advantageous to use the depth maps 16b in the second path 11b of the system 10.
  • the invention provides, synthetically generated depth maps 16a for Training the system 10, which training the system 10 and in particular the module 12b is significantly expanded.
  • Synthetically generated depth maps 16b may be in the same file format as the real depth maps 16a, such as disparity maps.
  • the depth maps 16a, 16b may include, for example, a matrix and / or list of entries, each entry being a pixel of a device for capturing
  • Depth information value for indicating a distance between the device and an object can be enriched and / or modified by different artificially generated objects at different positions.
  • the depth maps 16a may be largely and / or fully synthetically generated.
  • a plurality of depth information values, in particular at least 1% of the depth information values, of the depth maps 16b may be defined and / or specified and stored to produce a synthetically generated depth map 16a.
  • a contiguous pixel region in the synthetically generated depth maps 16a can be manipulated and / or defined, so that geometrically coherent objects are generated in the synthetically generated depth maps which can represent real objects in real depth maps 16b.
  • the manipulated and / or defined depth information values can furthermore be selected such that they correspond to a distance to the respective object between 5 cm and 500 m, in particular between 5 cm and 200 m. This allows the objects to be generated in safety-relevant intervals, for example for a vehicle.
  • a depth map 16a a block may be created in the middle of a road that is delineated from the road by different depth information values and within the depth map 16a
  • the second path 11b of the module 12b may be extended or replaced by another module based on motion information.
  • the synthetic generation of motion information may e.g. in the form of an optical flow lead to an improved scope of training. This is illustrated by an example in which an object moves through the field of view of the system 10, which is unknown or ambiguous.
  • image data 14 can also be generated at least partially synthetically and used to train the system 10.
  • FIG. 2 shows a flowchart for illustrating steps of a method for teaching a machine learning system 10 according to one
  • a depth map 16a is generated at least partially synthetically. For this purpose, in step S1 several entries of
  • Depth map 16a manipulated, fixed, changed and / or defined.
  • a subset of entries of the depth map 16a can be manipulated and / or defined, which subset one
  • the depth map 16a may also be stored and / or deposited in a data storage device.
  • the synthetically generated depth map 16a is fed into the ML system 10, for example via a suitable interface. Furthermore, image data 14 is fed to the system 10 in step S2.
  • the image data 16 can originate from a camera and / or approximately on one Data storage device be deposited.
  • the image data 14 can be assigned to the synthetically generated depth map 16a.
  • step S3 the image data 14 and the synthetically generated depth map 16a are processed, processed, interpreted and / or evaluated by the system 10.
  • step S3 a first
  • Interpretation 18a based on the image data 14 and a second interpretation 18b based on the depth map 16a are determined, generated and / or output by the system 10.
  • the interpretations 18a, 18b can each have a class of objects and / or probability values for objects and / or for object classes.
  • step S4 at least one parameter value of at least one parameter of the system 10 is adapted and / or changed, so that the system 10 is trained based on the processed image data 14 and the processed depth map 16a.
  • the system 10 is trained based on the processed image data 14 and the processed depth map 16a.
  • Interpretations 18a, 18b are propagated in the reverse direction by the system 10, wherein the parameter value of the at least one parameter can be adjusted while minimizing a recognition error.
  • all the parameter values of all parameters of the system can be adapted to teach the system 10.
  • the parameter values can be adapted to teach the system 10.
  • the two interpretations 18a, 18b can also be processed to a final interpretation 18c of the system 10, which in turn can optionally be output. Alternatively or additionally, in step S4, the final interpretation 18c and a corresponding recognition error of this interpretation 18c can also be used for teaching the system 10 and / or for adjusting the parameter values.
  • the object generated in the synthetic card 16a in step S1 can only be detected in the
  • Depth map 16a and not included in the image data 14. Also, different objects may be present in the image data 14 and the depth map 16a, so that a discrepancy exists between the image data 14 and the depth map 16a. This in turn may cause the interpretations 18a, 18b to diverge. If the interpretations 18a, 18b deviate from one another, the parameter values of the parameters of the system 10 can also be used in step S4 are adapted such that the interpretation 18b based on the depth map 16a versus the interpretation 18a based on the
  • Image data 14 is preferred.
  • the final interpretation 18c may preferably match the interpretation 18b and the parameter values of the system 10 may be selected accordingly.
  • the steps S1 to S4 can be run through several times to comprehensively teach the system 10, wherein in steps S1 different depth maps 16a with relatively different objects are always generated and can be fed into the system 10.
  • the objects in the depth maps 16a may differ from each other in terms of a dimension, size, shape, geometry, a position, a distance and / or any other sizes. In this way, the system 10 can be trained on all possible objects and scenarios.
  • FIG. 3 is a flowchart illustrating steps of a method of operating a machine learning system 10 according to one
  • system 10 described with respect to FIG. 3 has the same elements and features as the system 10 of FIG. Furthermore, the system 10 of Figure 3 may be taught according to the method described with reference to Figure 2.
  • the system 10 can in particular for object recognition in a
  • image data 14 for example a camera of the motor vehicle, is supplied to the system. Further, in step S1, the system 10 is supplied with a depth map 16b with distance information, such as from a stereo camera, an ultrasonic sensor, or any other distance sensor.
  • a step S2 the image data 14 and the depth map 16b are processed, interpreted and / or analyzed by the system 10. Based on the image data 14, the system 10 may determine a first interpretation 18a of a scenario depicted in the image data 14. Further, the system 10 may determine a second interpretation 18b based on the depth map 16b.
  • the two interpretations 18a, 18b are then further processed in a step S3 and optionally compared with one another. Based on the Interpretations 18a, 18b, a final interpretation 18c of the scenario depicted in the image data 14 and the depth map 16b is determined and / or created in step S3. If the two interpretations 18a, 18b do not agree, then for security reasons the interpretation 18b based on the depth map 16b may be preferred over the interpretation 18a based on the image data 14.
  • the final interpretation 18c may further include other components of the
  • Motor vehicle such as a control unit, are supplied. Based on the interpretation 18c can then be a reaction of the vehicle, such as
  • a braking operation and / or an evasive maneuver determined, initiated and / or performed.

Abstract

Es wird ein Verfahren zum Anlernen eines Maschinen-Lern-Systems (10) vorgeschlagen, wobei Bilddaten (14) in ein Maschinen-Lern-System (10) unter Prozessieren zumindest eines Teils der Bilddaten (14) durch das Maschinen-Lern-System (10) eingespeist werden. Das Verfahren zeichnet sich insbesondere durch einen Schritt des synthetischen Generierens wenigstens eines Teils wenigstens einer Tiefenkarte (16a) aus, welche eine Mehrzahl von Tiefeninformationswerten aufweist. Ferner wird die wenigstens eine Tiefenkarte (16a) in das Maschinen-Lern-System (10) unter Prozessieren zumindest eines Teils der Tiefeninformationswerte der wenigstens einen Tiefenkarte (16a) eingespeist. Das Maschinen-Lern-Systems (10) wird sodann basierend auf den prozessierten Bilddaten (14) und basierend auf den prozessierten Tiefeninformationswerten der wenigstens einen Tiefenkarte (16a) unter Anpassen eines Parameterwertes wenigstens eines Parameters des Maschinen-Lern-Systems (10) angelernt, wobei der angepasste Parameterwert eine Interpretation von Eingangsdaten durch das Maschinen-Lern-System (10) beeinflusst.

Description

Beschreibung
Titel
Trainieren und Betreiben eines Maschinen- Lern-Systems
Gebiet der Erfindung
Die vorliegende Erfindung betrifft allgemein das Gebiet künstlicher Intelligenz. Insbesondere betrifft die Erfindung ein Verfahren zum Anlernen eines
Maschinen-Lern-Systems, ein Verfahren zum Betreiben eines Maschinen-Lern- Systems sowie ein Maschinen- Lern-System.
Stand der Technik
Das Führen eines Kraftfahrzeugs im Straßenverkehr erfordert regelmäßig eine zuverlässige visuelle Erkennung einer Vielzahl von Objekten, wie etwa anderer Verkehrsteilnehmer, Verkehrszeichen, Fahrbahnbegrenzungen oder Hindernisse irgendwelcher Art. Zunehmend werden Kraftfahrzeuge im Hinblick auf ein teilweise oder vollständig automatisiertes Fahren weiterentwickelt, wobei das bisher durch einen Fahrer geleistete Erkennen von Objekten künstlich nachgebildet wird. Aufgrund der hohen Komplexität von Erkennungsvorgängen werden dabei in der Regel Maschinen- Lern-Systeme und/oder Künstliche- Intelligenz-Systeme eingesetzt, welche beispielsweise anhand von mit einer Kamera des Kraftfahrzeugs aufgenommenen Bilddaten eine Klassifizierung der in den Bilddaten erkennbaren Objekte vornehmen und so letztlich die Objekte automatisch identifizieren können. Derartige Maschinen- Lern-Systeme zur Erkennung von Objekten können beispielsweise ein neuronales Netzwerk und/oder ein neuronales Netz aufweisen.
Die Objekterkennung mittels Maschinen- Lern-System kann ferner dadurch verbessert werden, dass zusätzlich zu Bilddaten Daten anderer Sensoren ausgewertet werden. Derartige Systeme werden auch Mehrpfad-Systeme oder Multi- Path-Systeme genannt. Ein solches System kann das Umfeld
beispielsweise auf Basis von visuellen Informationen aus unterschiedlichen Quellen erfassen und interpretieren. Dabei kann ein lernendes System, wie z.B. ein neuronales Netz, welches auf Basis von Bildinformationen aus einer einzelnen Kamera das Umfeld erfasst, durch ein Modul ergänzt werden, welches 3D Informationen und/oder zeitliche Bewegungsinformationen erfasst und interpretiert. Dadurch kann insgesamt die Objekterkennung verbessert werden.
Um mit Maschinen-Lern-Systemen und/oder Künstliche-Intelligenz-Systemen zuverlässig Objekte in Eingangsdaten und/oder Sensordaten erkennen zu können, müssen diese Systeme jedoch mit einer großen Menge von
Trainingsdaten angelernt werden. Dies kann besonders bei Mehrpfad-System eine Herausforderung darstellen.
Offenbarung der Erfindung
Mit Ausführungsformen der Erfindung kann in vorteilhafter Weise ein Maschinen- Lern-System umfassend trainiert und/oder angelernt werden, so dass insgesamt das Maschinen-Lern-System und/oder eine Objekterkennung basierend auf dem Maschinen- Lern-System verbessert werden kann.
Gemäß einem ersten Aspekt der Erfindung wird ein Verfahren zum Anlernen und/oder Trainieren eines Maschinen-Lern-Systems vorgeschlagen. In einem Schritt des Verfahrens werden Bilddaten in ein Maschinen-Lern-System unter Prozessieren und/oder Verarbeiten zumindest eines Teils der Bilddaten eingespeist. Das Verfahren zeichnet sich insbesondere durch die folgenden Schritte aus:
- synthetisches Generieren und/oder künstliches Erzeugen wenigstens eines
Teils wenigstens einer Tiefenkarte, welche eine Mehrzahl von
Tiefeninformationswerten aufweist, wobei jeder der Tiefeninformationswerte mit einem Abstand zu einem Objekt korreliert;
- Einspeisen der wenigstens einen Tiefenkarte in das Maschinen-Lern-System unter Prozessieren und/oder Verarbeiten zumindest eines Teils der
Tiefeninformationswerte der wenigstens einen Tiefenkarte durch das
Maschinen-Lern-System; und
- Anlernen des Maschinen-Lern-Systems basierend auf den prozessierten
Bilddaten und basierend auf den prozessierten Tiefeninformationswerten der wenigstens einen Tiefenkarte unter Anpassen, Variieren und/oder Verändern wenigstens eines Parameterwertes wenigstens eines Parameters des Maschinen-Lern-Systems, wobei der angepasste wenigstens eine
Parameterwert eine Interpretation von Eingangsdaten durch das Maschinen- Lern-System und/oder eine Ausgabe des Maschinen- Lern-Systems beeinflusst.
Allgemein kann das Maschinen-Lern-System, im Folgenden auch ML-System oder nur System genannt, ein beliebig ausgestaltetes Künstliche-Intelligenz- System bezeichnen. Insbesondere kann das ML-System als Klassifikator, beispielsweise als neuronales Netz, ausgestaltet sein. Das ML-System kann als Mehrpfad-System und/oder als Multipath-System ausgestaltet sein und dazu eingerichtet sein, neben Bilddaten auch Tiefenkarten zu verarbeiten, zu analysieren und/oder zu interpretieren. Das ML-System kann hierzu als einteiliges System ausgeführt sein oder beispielsweise mehrere Module aufweisen, welche jeweils unterschiedliche Daten verarbeiten können.
Beispielsweise kann das ML-System ein erstes Modul zur Verarbeitung von Bilddaten und ein zweites Modul zur Verarbeitung von Tiefenkarten aufweisen.
Der Begriff„Einspeisen“ von Daten in das ML-System kann hier und im
Folgenden ein Zuführen von Daten zu dem ML-System, etwa über eine geeignete Datenverbindung und/oder eine geeignete Schnittstelle des ML- Systems, bezeichnen.
Des Weiteren kann das„Anlernen des ML-Systems“ ein Einspeisen und
Verarbeiten der entsprechenden Daten, wie etwa der Bilddaten und/oder der Tiefeninformationswerte, in einer beliebigen Datenverarbeitungsrichtung des ML- Systems bezeichnen. Insbesondere können die Daten zum Anlernen des ML- Systems in Vorwärtsrichtung im Rahmen einer Vorwärts- Fortpflanzung (forward propagation) und/oder in Rückwärtsrichtung im Rahmen einer Rückwärts- Fortpflanzung (backward propoagation) durch das ML-System propagiert werden. Dabei kann iterativ und/oder sukzessiv der Parameterwert des wenigstens einen Parameters des ML-Systems derart angepasst, verändert und/oder variiert werden, dass eine Reaktion und/oder die Interpretation von beliebigen weiteren Eingangsdaten im Hinblick auf einen Einsatzzweck des ML- Systems verbessert und/oder optimiert wird. Dient das ML-System
beispielsweise der Objekterkennung, so kann mit dem Verfahren der
Parameterwert des wenigstens einen Parameters derart angepasst, verändert und/oder variiert werden, dass letztlich die Präzision der Objekterkennung verbessert wird. Dabei kann die„Interpretation der Eingangsdaten durch das ML- System“ bedeuten, dass das System die Eingangsdaten verarbeitet und eine insbesondere durch den Parameterwert des wenigstens einen Parameters zumindest teilweise beeinflusste Ausgabe bereitstellt. Handelt es sich bei dem ML-System etwa um einen Klassifikator, so kann das System beispielsweise wenigstens eine Klassenbezeichnung, eine Klasse und/oder wenigstens einen Wahrscheinlichkeitswert für eine Klasse von Objekten ausgeben. Der Parameter kann daher allgemein eine Größe, insbesondere eine mathematische Größe bezeichnen, basierend auf welcher das ML-System die ihm zugeführten
Eingangsdaten, wie Sensordaten, Bilddaten und/oder Tiefenkarten, analysiert und/oder interpretiert.
Die voranstehend genannten Bilddaten und/oder die wenigstens eine Tiefenkarte können insbesondere Trainingsdaten des ML-Systems bezeichnen. Zu
Trainingszwecken können die Bilddaten und/oder die Tiefenkarte auch gelabelt sein. Mit anderen Worten können die Bilddaten und/oder die Tiefenkarte auch eine Information bezüglich beispielsweise der in den Bilddaten und/oder der Tiefenkarte befindlichen Objekte enthalten. Basierend auf den Labels der Bilddaten und/oder der Tiefenkarte kann das ML-System ferner zu
Trainingszwecken einen Erkennungsfehler ermitteln und der wenigstens eine Parameterwert des wenigstens einen Parameters kann unter Minimierung des Erkennungsfehlers angepasst werden, um das ML-System anzulernen und/oder die Objekterkennung zu optimieren.
Die Tiefenkarte kann beispielsweise eine Disparitätskarte bezeichnen, welche Daten eines beliebigen Sensors zur Erfassung von Abstandsinformationen repräsentieren kann. Gleichsam kann die Tiefenkarte Informationen bezüglich eines Abstandes zu einem Objekt, d.h. Abstandsinformationen, repräsentieren, beinhalten und/oder aufweisen. Auch kann die Tiefenkarte räumliche
Informationen, Rauminformation, dreidimensionale Informationen und/oder 3D- Information enthalten. Die Tiefeninformationswerte der Tiefenkarte können dabei Abstandsdaten bezeichnen.
Die Eingangsdaten können beliebige Sensordaten, wie etwa Bilddaten einer Kamera und/oder eine Tiefenkarte eines Abstandsensors, bezeichnen, welche von dem ML-System, etwa zur Objekterkennung, ausgewertet, analysiert und/oder interpretiert werden. Insbesondere können die Eingangsdaten nicht gelabelt sein und/oder Daten bezeichnen, welche dem ML-System nach dem Anlernen des ML-Systems zur eigentlichen Objekterkennung zugeführt werden. Das synthetische Generieren kann als künstliches Erzeugen verstanden werden. Synthetisch generierte und/oder künstlich erzeugte Tiefeninformationswerte können daher Abstandsdaten bezeichnen, welche nicht mit einem Sensor und/oder Abstandssensor erfasst wurden, sondern beispielsweise manuell und/oder maschinell erzeugt wurden.
Zusammenfassend wird gemäß dem ersten Aspekt der Erfindung ein
Trainingsverfahren für ein ML-System, wie beispielsweise ein neuronales Netz, vorgeschlagen, wobei dem System sowohl Bilddaten, wie beispielsweise Bilder einer Kamera, als auch eine zumindest teilweise synthetisch generierte
Tiefenkarte zugeführt werden. Basierend auf den Bilddaten und der Tiefenkarte wird der Parameterwert des wenigstens einen Parameters des ML-Systems zum Anlernen des ML-Systems angepasst. Insbesondere können im Rahmen des erfindungsgemäßen Trainingsverfahrens mehrere oder alle Parameter des ML- Systems angepasst werden, so dass beispielsweise eine Objekterkennung durch das ML-System verbessert wird. Das ML-System kann dabei mit Bilddaten und ausschließlich mit synthetisch generierten Tiefenkarten trainiert werden.
Alternativ können auch zusätzlich zu Bilddaten und synthetisch generierten Tiefenkarten reale Tiefenkarten zum Trainieren verwendet werden, welche mit einem Sensor erfasst wurden. Auch können dem System zum Anlernen synthetisch generierte Bilddaten zugeführt werden.
Durch das synthetische Generieren der Tiefenkarte kann in vorteilhafter Weise ein künstliches Szenario erzeugt und trainiert werden, in welchem beispielsweise eine Interpretation der Bilddaten und eine Interpretation der Tiefenkarte durch das ML-System zu unterschiedlichen Reaktionen und/oder Ergebnissen führen würden. Ferner kann eine Tiefenkarte im Vergleich zu Bilddaten mit geringem Aufwand, schnell und kosteneffizient synthetisch erzeugt werden, da sie im Vergleich zu Bilddaten weniger komplex ist. Auf diese Weise können
kosteneffizient Tiefenkarten erzeugt werden, welche zu den Bilddaten
widersprüchlich sein können, von diesen abweichen können und/oder zu unterschiedlichen Rektionen bzw. Interpretationen durch das ML-System führen können. So kann in vorteilhafter Weise die Reaktion des ML-Systems auf ungewöhnliche und seltene Szenarien, wie beispielsweise optische
Täuschungen, trainiert werden. Beispielsweise kann ein Szenario nachgebildet werden, in welchem mit einer Kamera ein Bild von einem Werbeplakat gemacht wird, auf welchem eine Straße abgebildet ist. Eine Interpretation ausschließlich dieser Abbildung einer Straße könnte dazu führen, dass das ML-System die Straße als reale Straße interpretiert. Ein Sensor zur Erfassung von
Abstandsinformationen würde das Werbeplakat jedoch als solides Objekt in einem festen Abstand zu dem Sensor erkennen und entsprechende
Tiefeninformationswerte und/oder eine Tiefenkarte aufzeichnen. Mit dem erfindungsgemäße Verfahren können in vorteilhafter Weise solche Szenarien künstlich erzeugt und trainiert werden, so dass das trainierte ML-System während dessen Einsatz solche Szenarien erkennen und korrekt interpretieren kann. Insgesamt kann durch das erfindungsgemäße Verfahren das ML-System, insbesondere eine Objekterkennung durch das ML-System, signifikant verbessert werden.
Die Erfindung kann insbesondere als auf den nachfolgend beschriebenen Erkenntnissen beruhend angesehen werden. Ein lernendes System wird in der Regel durch das Prozessieren von großen Mengen an Trainingsdaten
verbessert. Jedoch ist es nicht möglich, die gesamte Welt und/oder alle
Szenarien in den Trainingsdaten abzubilden. Es kann daher Objekte und/oder Szenarien geben, welche für das System unbekannt sind. Die vorliegende Erfindung ermöglicht daher, mit zusätzlichen synthetisch erzeugten Tiefenkarten eine richtige Beurteilung von Objekten und/oder Szenarien zu trainieren, welche nicht in einem konventionellen Trainingsdatensatz von realen Daten enthalten sind. Bei einem Training des ML-Systems ausschließlich mit realen Daten, könnten die Parameter des Systems, etwa Gewichte eines neuronalen Netzes, derart ermittelt und/oder gewählt werden, dass das System komplexe
Informationen aus den Bilddaten und im Vergleich dazu weniger komplexe Informationen aus den Tiefenkarten ableiten kann, da im Vergleich zu
Tiefenkarten in den Bilddaten mehr Information vorhanden sein kann. Bei Verwendung des trainierten ML-Systems kann dies dazu führen, dass das System einer Interpretation der Bilddaten folgt, beispielsweise wenn zueinander abweichende Bilddaten und Tiefenkarten interpretiert werden, da solche
Abweichungen in realen Datensätzen typischerweise unterrepräsentiert sind, selten Vorkommen und daher gegebenenfalls unzureichend trainiert sind. Der Einsatz eines Multipfad-Systems, welches etwa Objekte basierend auf Daten unterschiedlicher Sensoren, wie beispielsweise Bilddaten und Tiefenkarten, erkennt, kann allgemein eine redundante Absicherung der Objekterkennung ermöglichen. Da es verhältnismäßig unwahrscheinlich ist, dass zwei unterschiedliche Erkennungspfade des Systems, etwa ein erster Pfad basierend auf den Bilddaten und ein zweiter Pfad basierend auf den Tiefenkarten, fehlerhaft sind, kann jeder der Pfade zur Plausibilitätskontrolle des jeweils anderen Pfades dienen, wodurch insgesamt die Objekterkennung verbessert werden kann.
Derartige Szenarien, in denen eine Interpretation der Bilddaten durch das ML- System von einer Interpretation der Tiefenkarte durch das ML-System
voneinander abweichen, können in vorteilhafter Weise durch das
erfindungsgemäße Verfahren trainiert werden.
Mit anderen Worten kann durch das erfindungsgemäße Verfahren eine korrekte Interpretation von Objekten mit mehrdeutiger Erscheinung trainiert werden.
Insgesamt kann daher der Trainingsvorgang von lernenden Systemen erweitert und verbessert werden. Dabei werden Szenarien mit synthetisch erzeugten Tiefeninformationen trainiert, welche nur selten Vorkommen und daher nur sehr schwer und mit erheblichem Aufwand in das System eintrainiert werden können. Kern der Erfindung ist daher die Nutzung von synthetisch erzeugten
Tiefenkarten, um das System zu trainieren. Der größte Gewinn zeigt sich bei der Behandlung von sogenannten Corner Cases oder seltenen Spezialfällen, bei denen die Bilddaten einen anderen Schluss zulassen würden als die Tiefenkarte, wie etwa bei den voranstehend beschriebenen optischen Täuschungen. Solche Fälle sind sehr selten und durch das reine Einspeisen von realen Szenen in das System nur sehr schwer zu erlernen. Allgemein kann daher mit der vorliegenden Erfindung ein lernendes System und/oder ein ML-System entscheidend verbessert werden, welches auf Basis von visuellen Daten und/oder Bilddaten sicher entscheiden muss, ob es sich um einen relevanten Gegenstand handelt.
Gemäß einer Ausführungsform der Erfindung weist das Verfahren ferner den Schritt des Zuordnens der Bilddaten zu der wenigstens einen Tiefenkarte auf. Alternativ oder zusätzlich wird der Parameterwert des Maschinen- Lern-Systems in Abhängigkeit der prozessierten Bilddaten und in Abhängigkeit der
prozessierten Tiefeninformationswerte angepasst. Mit anderen Worten kann der Parameterwert des wenigstens einen Parameters auf beide Daten, d.h. sowohl die Bilddaten als auch die Tiefenkarte, abgestimmt werden. Auf diese Weise kann in vorteilhafter Weise ein Mehrpfad-System umfassend angelernt werden, welches eine Umgebung sowohl basierend auf Bilddaten, d.h. basierend auf visueller Information, als auch basierend auf einer Tiefenkarte, d.h. basierend auf einer Rauminformation, analysiert und/oder interpretiert. Gemäß einer Ausführungsform der Erfindung umfasst die Tiefenkarte eine Matrix, ein Array und/oder eine Liste mit Einträgen, wobei jeder Eintrag ein Pixel einer Vorrichtung zur Erfassung von Tiefeninformation, Rauminformation und/oder 3 D- Information repräsentiert. Ein Wert jedes Eintrages ist dabei ein Tiefeninformationswert zur Angabe eines Abstandes zwischen der Vorrichtung und einem Objekt. Die Tiefenkarte kann insbesondere eine Disparitätskarte bezeichnen und/oder die Tiefeninformationswerte können Disparitätswerte und/oder Abstandsdaten bezeichnen.
Gemäß einer Ausführungsform der Erfindung repräsentiert die wenigstens eine Tiefenkarte Daten einer Stereokamera, einer Multi- View- Kamera, einer
Abstandmessvorrichtung, einer radarbasierten Abstandsmessvorrichtung, einer ultraschallbasierten Abstandsmessvorrichtung und/oder einer laserbasierten Abstandsmessvorrichtung. Allgemein kann die Tiefenkarte Daten eines beliebigen Sensors zur Erfassung von Abstandsinformation, Abstandsdaten und/oder Rauminformation repräsentieren. Des Weiteren können die Bilddaten Daten eines beliebigen optischen Sensors bezeichnen, wie etwa einer Kamera, eine RGB-Kamera, eine Farbkamera, eine Grauwertkamera und/oder einer Infrarotkamera.
Gemäß einer Ausführungsform der Erfindung weist der Schritt des synthetischen Generierens des wenigstens einen Teils der wenigstens einen Tiefenkarte ferner die Teilschritte des Definierens, Festlegens und/oder Bestimmens einer Mehrzahl von Tiefeninformationswerten der Tiefenkarte und des Speicherns der Mehrzahl von definierten Tiefeninformationswerten in der Tiefenkarte auf. Dabei können insbesondere wenigstens 1%, beispielsweise wenigstens 5%, aller
Tiefeninformationswerte der synthetisch generierten Tiefenkarte definiert werden. Durch Festlegen von wenigstens rund 1% der Tiefeninformationswerte kann sichergestellt sein, dass ein hinreichend großes und/oder massives Objekt künstlich in der Tiefenkarte erzeugt wird, so dass bei Einspeisen einer realen Tiefenkarte in das trainierte ML-System nicht etwa fälschlicherweise ein statistisches Rauschen der Daten als Objekt erkannt wird. Insgesamt können so der Trainingsvorgang sowie die Objekterkennung mit dem trainierten System weiter verbessert werden. Gemäß einer Ausführungsform der Erfindung sind die definierten
Tiefeninformationswerte Werte zumindest einer Teilmenge von Einträgen der Tiefenkarte, welche Teilmenge einen zusammenhängenden Pixelbereich von Pixeln einer Vorrichtung zur Erfassung von Tiefeninformation repräsentiert, so dass durch Definieren der Tiefeninformationswerte eine Abstandsinformation bezüglich eines geometrisch zusammenhängenden Objektes in der Tiefenkarte erzeugt ist. Auf diese Weise kann ein massives und/oder verhältnismäßig großes Objekt in der Tiefenkarte künstlich erzeugt werden, welches ein reales Objekt repräsentieren und/oder darstellen kann. Das künstlich in der Tiefenkarte erzeugte Objekt kann eine beliebige Form, Kontur und/oder Größe aufweisen. Auch kann das Objekt an einer beliebigen Position in der Tiefenkarte erzeugt werden. Ferner können auch mehrere Objekte in einer einzigen Tiefenkarte erzeugt werden, beispielsweise an unterschiedlichen Positionen.
Gemäß einer Ausführungsform der Erfindung ist das geometrisch
zusammenhängende Objekt ausschließlich in der wenigstens einen Tiefenkarte enthalten, so dass durch das synthetische Generieren des wenigstens einen Teils der wenigstens einen Tiefenkarte eine Diskrepanz und/oder eine
Abweichung zwischen den Bilddaten und der wenigstens einen Tiefenkarte erzeugt ist. In diesem Zusammenhang kann die Diskrepanz zwischen der Tiefenkarte und den Bilddaten bedeuten, dass das Objekt lediglich in der Tiefenkarte vorhanden ist. Alternativ oder zusätzlich kann die Diskrepanz bedeuten, dass in den Bilddaten und der Tiefenkarte unterschiedliche Objekte vorhanden sind. Beispielsweise kann in den Bilddaten eine Fahrbahn erkennbar sein, welche jedoch lediglich von einem Werbeplakat stammt, wohingegen in der Tiefenkarte das Werbeplakat als massives Objekt in einem bestimmten Abstand erkennbar sein kann.
Gemäß einer Ausführungsform der Erfindung, wird der Parameterwert des wenigstens eines Parameters des Maschinen- Lern-Systems derart angepasst, dass bei einer Diskrepanz zwischen den Bilddaten und der wenigstens einen Tiefenkarte eine Interpretation der Tiefenkarte durch das Maschinen-Lern- System gegenüber einer Interpretation der Bilddaten durch das Maschinen-Lern- System bevorzugt wird. Dadurch kann sichergestellt sein, dass, wenn die Tiefenkarte bzw. die darin enthaltene Abstandsinformation nach Interpretation durch das ML-System vermuten lässt, dass sich beispielsweise auf einem Fahrweg eines Kraftfahrzeugs ein Hindernis befindet, welches jedoch in den Bilddaten nicht oder nur unzureichend von dem ML-System erkannt wird, das ML-System eine entsprechende Ausgabe bereitstellt, welche das Fahrzeug veranlassen kann, einen Bremsvorgang und/oder ein Ausweichmanöver durchzuführen. Insgesamt kann so eine Zuverlässigkeit und/oder Präzision der Objekterkennung durch das trainierte ML-System erhöht sein. Auch kann dies bei einem Einsatz des derart trainierten ML-Systems in einem Fahrzeug die
Sicherheit signifikant erhöhen.
Gemäß einer Ausführungsform der Erfindung ist die Mehrzahl von
Tiefeninformationswerten derart definiert und/oder gewählt, dass ein Abstand zwischen der Vorrichtung zur Erfassung von Tiefeninformation und dem Objekt in einem Bereich zwischen 5 cm und 500 m, insbesondere zwischen 5 cm und 200 m, liegt. Der Abstand kann dabei einem fiktiven Abstand einer fiktiven
Vorrichtung zur Erfassung von Abstandsinformation zu dem Objekt entsprechen. Beispielsweise kann der Abstand zu dem Objekt in einem sicherheitsrelevanten Bereich eines Fahrzeugs liegen, so dass das ML-System umfassend für einen Einsatz in einem Fahrzeug trainiert werden kann. In Abhängigkeit davon, welchen Typ von Vorrichtung zur Erfassung von Abstandsinformation die
Tiefenkarte repräsentiert, kann der entsprechende Abstand des synthetisch generierten Objekts gewählt werden. Wenn die Tiefenkarte etwa Daten einer ultraschallbasierten Abstandmessvorrichtung repräsentiert, so kann das synthetisch in der Tiefenkarte erzeugte Objekt in einem kleineren Abstand erzeugt werden als es beispielsweise bei einer radarbasierten
Abstandmessvorrichtung der Fall wäre, um so der geringeren Reichweite der ultraschallbasierten Abstandmessvorrichtung Rechnung zu tragen.
Gemäß einer Ausführungsform der Erfindung weist das Verfahren ferner die folgenden Schritte auf:
- synthetisches Generieren jeweils zumindest eines Teils einer Mehrzahl von
Tiefenkarten unter Definieren einer Mehrzahl von Tiefeninformationswerten jeder Tiefenkarte; und
- Anlernen des Maschinen-Lern-Systems unter Prozessieren der Mehrzahl von synthetisch generierten Tiefenkarten durch das Maschinen-Lern-System, wobei die definierten Tiefeninformationswerte jeder Tiefenkarte jeweils einen zusammenhängenden Pixelbereich von Pixeln einer Vorrichtung zur
Erfassung von Tiefeninformation repräsentieren, so dass durch Definieren der Tiefeninformationswerte jeder Tiefenkarte jeweils eine Abstandsinformation bezüglich eines geometrisch zusammenhängenden Objektes in der jeweiligen Tiefenkarte erzeugt ist.
Allgemein kann durch synthetisches Generieren und Anlernen unter Verarbeiten unterschiedlicher Tiefenkarten das Training des ML-Systems verbessert werden. Auch können so viele unterschiedliche Szenarien mit vielen unterschiedlichen Objekten trainiert werden, so dass dadurch die Objekterkennung mit dem trainierten ML-System wesentlich verbessert werden kann.
Gemäß einer Ausführungsform der Erfindung unterscheiden sich die in den synthetisch generierten Tiefenkarten erzeugten Objekte hinsichtlich einer Kontur, einer Abmessung, einer Position in den jeweiligen Tiefenkarten und/oder hinsichtlich eines Abstandes voneinander. Mit anderen Worten können in den Tiefenkarten zueinander unterschiedliche Objekte erzeugt werden, was das Training unterschiedlicher Szenarien und/oder ein Erkennen unterschiedlicher Objekte ermöglichen kann. Die in den Tiefenkarten erzeugten Objekte können beispielsweise eine runde, ovale, eckige, polygonförmige, viereckige, dreieckige oder eine beliebige andere Kontur und/oder Geometrie aufweisen. Die unterschiedlichen Objekte können dabei insbesondere zufällig generiert werden. Beispielsweise können bestimmte Parameter der Objekte, wie Abmessungen, Größen, Geometrien, Positionen in den Tiefenkarten oder dergleichen, zufällig variiert werden, etwa unter Verwendung eines Zufallszahlgenerators. Alternativ oder zusätzlich können die in den Tiefenkarten erzeugten Objekte von gescannten realen Objekten stammen. Auf diese Weise können effizient und schnell große Mengen unterschiedlicher Tiefenkarten mit unterschiedlichen Objekten erzeugt und zum Trainieren des ML-Systems verwendet werden.
Gemäß einer Ausführungsform der Erfindung ist das Maschinen- Lern-System ein künstliches neuronales Netz, insbesondere ein mehrschichtiges künstliches neuronales Netz. Alternativ oder zusätzlich ist der wenigstens eine Parameter des Maschinen- Lern-Systems ein Gewicht eines Knotenpunktes eines künstlichen neuronalen Netzes. Das neuronale Netz kann etwa ein lineares, ein nicht lineares, ein rekurrentes und/oder ein faltendes neuronales Netz sein.
Ein zweiter Aspekt der Erfindung betrifft die Verwendung wenigstens einer zumindest teilweise synthetisch generierten Tiefenkarte in Kombination mit Bilddaten zum Anlernen und/oder Trainieren eines Maschinen-Lern-Systems, insbesondere zum Anlernen eines ML-Systems, so wie voranstehend und nachfolgend beschrieben.
Ein dritter Aspekt der Erfindung betrifft ein Verfahren zum Betreiben eines Maschinen- Lern-Systems für ein Kraftfahrzeug, wobei das Maschinen-Lern- System durch ein Verfahren, so wie voranstehend und nachfolgend beschrieben, angelernt ist. Das Verfahren zum Betreiben des ML-Systems kann gleichsam ein Verfahren zur Erkennung von Objekten unter Verwendung des ML-Systems bezeichnen.
Merkmale, Elemente und/oder Schritte des Verfahrens zum Anlernen des ML- Systems können Merkmale, Elemente und/oder Schritte des Verfahrens zum Betreiben des angelernten ML-Systems sein und umgekehrt.
Ein vierter Aspekt der Erfindung betrifft ein Maschinen-Lern-System zur
Erkennung von Objekten für ein Kraftfahrzeug, wobei das Maschinen-Lern- System durch ein Verfahren, so wie voranstehend und nachfolgend beschrieben, angelernt ist.
Merkmale, Elemente und/oder Schritte des Verfahrens zum Anlernen und/oder des Verfahrens zum Betreiben des Maschinen- Lern-Systems können Merkmale, Elemente und/oder Eigenschaften des Maschinen- Lern-Systems sein und umgekehrt. Mit anderen Worten gilt sämtliches in Bezug auf einen Aspekt der Erfindung Offenbarte gleichermaßen für alle anderen Aspekte der Erfindung.
Kurze Beschreibung der Zeichnungen
Im Folgenden werden Ausführungsbeispiele der Erfindung mit Bezug auf die beiliegenden Figuren detailliert beschrieben.
Fig. 1 zeigt ein Maschinen-Lern-System gemäß einem Ausführungsbeispiel der Erfindung.
Fig. 2 zeigt ein Flussdiagramm zur Illustration von Schritten eines Verfahrens zum Anlernen eines Maschinen- Lern-Systems gemäß einem
Ausführungsbeispiel der Erfindung. Fig. 3 zeigt ein Flussdiagramm zur Illustration von Schritten eines Verfahrens zum Betreiben eines Maschinen-Lern-Systems gemäß einem
Ausführungsbeispiel der Erfindung.
Die Figuren sind lediglich schematisch und nicht maßstabsgetreu. In den Figuren sind gleiche, gleich wirkende oder ähnliche Elemente mit gleichen
Bezugszeichen versehen.
Ausführungsformen der Erfindung
Fig. 1 zeigt ein Maschinen-Lern-System 10 gemäß einem Ausführungsbeispiel der Erfindung. Allgemein kann das ML-System 10 ein Künstliche-Intelligenz- System 10 beliebiger Art sein. Insbesondere kann das ML-System 10 wenigstens ein neuronales Netz 12 aufweisen. Das neuronale Netz 12 kann dabei mehrschichtig ausgebildet sein und ein lineares, nicht lineares, rekurrentes und/oder faltendes neuronales Netz 12 sein. Das neuronale Netz 12 kann eine oder mehrere Faltungsschichten aufweisen.
Das ML-System 10 der Figur 1 ist als Mehrpfad-System 10 ausgebildet, wobei über einen ersten Pfad 11a Bilddaten 14 als Eingangsgrößen bzw.
Eingangsdaten in das System 10 gespeist und von diesem verarbeitet werden können. Über einen zweiten Pfad 11b können Tiefenkarten 16a, 16b und/oder Abstandsdaten 16a, 16b in das System 10 gespeist und von diesem verarbeitet werden.
Das in Figur 1 gezeigte System 10 weist exemplarisch drei Module 12a, 12b, 12c auf. Ein erstes Modul 12a ist dazu eingerichtet, die Bilddaten 14 zu verarbeiten, analysieren und/oder zu interpretieren und eine erste Interpretation 18a basierend auf den Bilddaten 14 zu ermitteln und/oder auszugeben. Die Bilddaten 14 können etwa Bilder einer Kamera, eine RGB-Kamera, eine Farbkamera, eine Grauwertkamera und/oder einer Infrarotkamera sein.
Das zweite Modul 12b ist dazu eingerichtet, die Tiefenkarten 16a, 16b zu verarbeiten, analysieren und/oder interpretieren und eine zweite Interpretation 18b basierend auf den Tiefenkarten 16a, 16b zu ermitteln und/oder auszugeben. Die Tiefenkarten 16b bezeichnen dabei reale Tiefenkarten 16b, welche etwa Daten einer Stereokamera, einer Multi-View-Kamera, einer
Abstandmessvorrichtung, einer radarbasierten Abstandsmessvorrichtung, einer ultraschallbasierten Abstandsmessvorrichtung und/oder einer laserbasierten Abstandsmessvorrichtung sein können. Auch können die Tiefenkarten 16b aus einer Informationsquelle stammen, aus welcher die Tiefeninformation extrahiert werden kann, wie z.B. einer Monokameraeinheit mit Structure-from- Motion Algorithmus. Die Tiefenkarten 16a bezeichnen dagegen synthetisch generierte Tiefenkarten 16a, welche dem System 10 zu Trainingszwecken zugeführt werden, wie nachfolgend im Detail beschrieben. Die Tiefenkarten 16a können daher künstlich erzeugt sein und Daten einer Stereokamera, einer Multi-View- Kamera, einer Abstandmessvorrichtung, einer radarbasierten
Abstandsmessvorrichtung, einer ultraschallbasierten Abstandsmessvorrichtung und/oder einer laserbasierten Abstandsmessvorrichtung repräsentieren.
Die beiden Interpretationen 18a, 18b werden exemplarisch in Figur 1 einem dritten Modul 12c zugeführt, welches basierend auf der ersten und zweiten Interpretation 18a, 18b eine finale Interpretation 18c ermittelt und/oder ausgibt.
Die drei Module 12a, 12b, 12c können dabei jeweils separate und/oder voneinander unabhängige Module 12a, 12b, 12c sein. Alternativ können die Module 12a, 12b oder alle drei Module 12a, 12b, 12c zu einem einzigen Modul zusammengefasst sein. Insbesondere können die Module 12a-c jeweils als neuronale Netze 12a-c ausgebildet sein und/oder die Module 12a-12c können als gemeinsames neuronales Netz 12 ausgebildet sein.
Zum Trainieren und/oder Anlernen des Systems 10 werden dem System über den ersten Pfad 11a Bilddaten 14 zugeführt und/oder über eine entsprechende Schnittstelle des Systems 10 eingespeist. Über den zweiten Pfad 11b werden dem System 10 ferner synthetisch generierte Tiefenkarten 16a zugeführt und/oder über eine entsprechende Schnittstelle eingespeist. Zusätzlich zu den synthetisch generierten Tiefenkarten 16a können dem System 10 auch reale Tiefenkarten 16b zugeführt werden.
Im Folgenden wird der Trainingsvorgang des Systems 10 exemplarisch basierend auf dem neuronalen Netz 12 erläutert. Ähnlich kann der
Trainingsvorgang jedoch auch bei beliebig anderer Ausgestaltung des Systems 10 von Statten gehen. Die neuronalen Netze 12a, 12b verarbeiten jeweils die Ihnen zugeführten Daten, d.h. die Bilddaten 14, die synthetisch generierten Tiefenkarten 16a und reale Tiefenkarten 16b. Die Bilddaten 14 und/oder die Tiefenkarten 16a, 16b können dabei gelabelt sein, d.h. eine Information bezüglich deren Inhalt, wie etwa in den Bilddaten 14 und/oder Tiefenkarten 16a, 16b enthaltene Objekte, aufweisen. Das neuronale Netz 12a kann bei Vorwärtspropagation der Bilddaten 14 die
Interpretation 18a ermitteln und/oder ausgeben, welche etwa eine Klasse von Objekten und/oder Wahrscheinlichkeitswerte sein kann. Bezüglich der
Interpretation 18a kann ferner anhand der Labelung der Bilddaten ein
Erkennungsfehler bestimmt werden. Ebenso kann das neuronale Netz 12b bei Vorwärtspropagation der Tiefenkarten 16a, 16b die Interpretation 18b ermitteln und/oder ausgeben, welche etwa eine Klasse von Objekten und/oder
Wahrscheinlichkeitswerte sein kann. Auch für die Interpretation 18b kann basierend auf dem Label der Tiefenkarten 16a, 16b ein Erkennungsfehler bestimmt werden.
Die neuronalen Netze 12a, 12b können dann in Rückwärtspropagation betrieben werden, wobei Parameterwerte von Parametern der neuronalen Netze 12a, 12b, welche insbesondere Gewichte von Knotenpunkten der neuronalen Netze 12a, 12b bezeichnen können, jeweils unter Minimierung der Erkennungsfehler angepasst, verändert und/oder variiert werden.
Die Interpretationen 18a, 18b können ferner dem neuronalen Netz 12c zugeführt werden, um eine finale Interpretation 18c zu ermitteln und/oder auszugeben, wobei wieder ein Erkennungsfehler bestimmt werden kann. Auch das neuronale Netz 12c kann in Rückwärtspropagation betrieben werden und unter Minimierung des Erkennungsfehlers können die Parameterwerte der Parameter und/oder die Gewichte der Knotenpunkte des neuronalen Netzes 12c angepasst, verändert und/oder variiert werden.
Alternativ können die Bilddaten 14 und die Tiefenkarten 16a, 16b gemeinsam durch das System 10 und das gesamte neuronale Netz 12 vorwärtspropagiert werden, um die Interpretation 18c zu erhalten. Das neuronale Netz 12 kann dann ebenso in Rückwärtspropagation betrieben werden und die Gewichte der Knotenpunkte des Gesamtsystem 10 und/oder des gesamten neuronalen Netzes 12 können unter Minimierung des Erkennungsfehlers angepasst, variiert und/oder verändert werden.
In jedem Fall wird erfindungsgemäß das System 10 mit Bilddaten 14 und mit synthetisch generierten Tiefenkarten 16a gespeist und die Parameterwerte der Parameter des Systems, insbesondere die Gewichte der Knotenpunkte des neuronalen Netzes 12, werden zum Anlernen des Systems 10 und/oder des neuronalen Netzes 12 angepasst. Die auf diese Weise angepassten
Parameterwerte und/oder Gewichte beeinflussen sodann die Interpretation und/oder Reaktion des Systems 10 auf beliebige Eingangsdaten, wie etwa Bilder einer Kamera in einem Fahrzeug und Sensordaten eines Ultraschall-, Radar, oder Laser-Abstandssensors.
Im Folgenden sind diverse Aspekte und Vorteile der Erfindung
zusammengefasst. Das angelernte Maschinen- Lern-System 10 wird mit
Bilddaten 14, etwa aus einer Kamera, und Tiefenkarten 16b mit
Tiefeninformationswerten gespeist, welche Tiefeninformationen,
Abstandsinformationen, Rauminformationen und/oder Bewegungsinformationen repräsentieren können. Die Tiefenkarten 16b können etwa von einer
Stereokamera stammen. Basierend auf den Daten aus beiden
Informationsquellen, d.h. den Bilddaten 14 und den Tiefenkarten 16b, analysiert das Gesamtsystem 10 die Umgebung. Bei rein bildbasierten Methoden der Objekterkennung kann es zu Verwechslungen und/oder falscher Interpretation 18a kommen. Wenn z.B. Personen auf einem Werbeplakat zu sehen sind, kann der bildbasierte Teil und/oder der erste Pfad 11a des Systems 10 nicht zwischen einer realen Person und einer Person auf dem Plakat unterscheiden. Weiterhin kann das System 10 bei Gegenständen und Objekten, die nicht im Training enthalten sind, nicht entscheiden was es ist. Es kann daher passieren, dass ein unbekannter grauer Kasten in den Bilddaten 14 als grauer Boden, als Bank oder als Tür erkannt wird. Um solche Entscheidungsfälle zu unterstützen, kann es vorteilhaft sein, die Tiefenkarten 16b in dem zweiten Pfad 11b des Systems 10 heranzuziehen.
Für das Training des Systems 10 kann es zeitaufwendig sein, mehrdeutige Fälle und Szenarien zu finden, bei denen die Tiefenkarten 16b bei der
Entscheidungsfindung Klarheit schaffen könnten. Aus diesem Grund ist erfindungsgemäß vorgesehen, synthetisch erzeugte Tiefenkarten 16a zum Trainieren des Systems 10 zu verwenden, womit das Training des Systems 10 und insbesondere des Moduls 12b wesentlich erweitert wird. Synthetisch erzeugte Tiefenkarten 16b können im gleichen Dateiformat vorliegen, wie die realen Tiefenkarten 16a, etwa in Form von Disparitätskarten. Die Tiefenkarten 16a, 16b können etwa eine Matrix und/oder eine Liste mit Einträgen umfassen, wobei jeder Eintrag ein Pixel einer Vorrichtung zur Erfassung von
Tiefeninformation repräsentiert, und wobei ein Wert jedes Eintrages ein
Tiefeninformationswert zur Angabe eines Abstandes zwischen der Vorrichtung und einem Objekt ist. Zum eigentlichen Trainieren können reale Tiefenkarten 16b durch unterschiedliche, künstlich erzeugte Objekte an verschiedenen Positionen angereichert und/oder modifiziert werden. Alternativ können die Tiefenkarten 16a größtenteils und/oder vollständig synthetisch erzeugt werden. Beispielsweise können mehrere Tiefeninformationswerte, insbesondere wenigstens 1% der Tiefeninformationswerte, der Tiefenkarten 16b definiert und/oder festgelegt werden und gespeichert werden, um eine synthetisch generierte Tiefenkarte 16a zu erstellen. Dabei kann insbesondere ein zusammenhängender Pixelbereich in den synthetisch generierten Tiefenkarten 16a manipuliert und/oder definiert werden, so dass in den synthetisch generierten Tiefenkarten geometrisch zusammenhängende Objekte erzeugt werden, welche reale Objekte in realen Tiefenkarten 16b repräsentieren können. Die manipulierten und/oder definierten Tiefeninformationswerte können ferner so gewählt werden, dass sie einem Abstand zu dem jeweiligen Objekt zwischen 5 cm und 500 m, insbesondere zwischen 5 cm und 200 m, entsprechen. Damit können die Objekte in beispielsweise für ein Fahrzeug sicherheitsrelevanten Abständen erzeugt werden. Als Beispiel kann in einer Tiefenkarte 16a ein Block mitten auf einer Straße erzeugt werden, der durch unterschiedliche Tiefeninformationswerte von der Straße abgegrenzt werden und innerhalb der Tiefenkarte 16a einen
Gegenstand auf der Straße repräsentiert, welcher im visuellen Bild und/oder den Bilddaten 14 nicht sichtbar ist. Damit wird eine Situation erzeugt, welche eine optische Täuschung imitiert. Im Vergleich zur Erzeugung von realistischen synthetischen Bilddaten kann es deutlich günstiger sein, synthetische, realistische Tiefenkarten 16a zu erzeugen. Dadurch lernt das System 10 in Fällen, in denen die bildbasierte Entscheidung bzw. Interpretation 18a entlang des ersten Pfades 11a nicht eindeutig ist, sich auf die Tiefeninformation, die zweiten Interpretation 18b und/oder den zweiten Pfad 11b zu fokussieren, um die finale Interpretation 18c durchzuführen. Dabei ist es unkritisch, dass auch die Tiefenkarte 16b Fehler enthalten kann. Solche Fehlerfälle beziehen sich auf einzelne kleine lokale Bildbereiche. Synthetische Tiefenobjekte, welche über einen größeren Bereich eine glatte Oberfläche aufweisen, heben sich dabei deutlich von den Fehlern ab, welche in der Tiefenkarte 16b entstehen können.
Der zweite Pfad 11b des Moduls 12b kann durch ein weiteres Modul erweitert oder ersetzt werden, welches auf Bewegungsinformationen basiert. Im Kontext der Erfindung kann die synthetische Erzeugung von Bewegungsinformation z.B. in Form eines optischen Flusses zu einem verbesserten Trainingsumfang führen. Deutlich wird dies an einem Beispiel, bei dem ein Gegenstand sich durch den Sichtbereich des Systems 10 bewegt, welcher unbekannt oder mehrdeutig ist.
Ferner sei erwähnt, dass auch die Bilddaten 14 zumindest teilweise synthetisch erzeugt und zum Trainieren des Systems 10 verwendet werden können.
Fig. 2 zeigt ein Flussdiagramm zur Illustration von Schritten eines Verfahrens zum Anlernen eines Maschinen- Lern-Systems 10 gemäß einem
Ausführungsbeispiel der Erfindung. Sofern nicht anders beschrieben weist das in Bezug auf Figur 2 beschriebene System 10 dieselben Elemente und Merkmale wie das System 10 der Figur 1 auf.
In einem ersten Schritt S1 wird eine Tiefenkarte 16a zumindest teilweise synthetisch generiert. Hierzu können in Schritt S1 mehrere Einträge der
Tiefenkarte 16a manipuliert, festgelegt, verändert und/oder definiert werden. Insbesondere kann eine Teilmenge von Einträgen der Tiefenkarte 16a manipuliert und/oder definiert werden, welche Teilmenge einen
zusammenhängenden Pixelbereich einer Vorrichtung zur Erfassung von
Tiefeninformation repräsentiert. Auf diese Weise kann ein Objekt bestimmter Abmessung, Größe, Form, Geometrie und/oder Kontur an einer bestimmten Position und in einem bestimmten Abstand in der Tiefenkarte 16a erzeugt werden. Die Tiefenkarte 16a kann ferner in einer Datenspeichervorrichtung gespeichert und/oder hinterlegt werden.
In einem zweiten Schritt S2 wird die synthetisch generierte Tiefenkarte 16a in das ML-System 10 eingespeist, etwa über eine geeignete Schnittstelle. Des Weiteren werden in Schritt S2 Bilddaten 14 in das System 10 eingespeist. Die Bilddaten 16 können von einer Kamera stammen und/oder etwa auf einer Datenspeichervorrichtung hinterlegt sein. Optional können in Schritt S2 die Bilddaten 14 der synthetisch generierten Tiefenkarte 16a zugeordnet werden.
In einem weiteren Schritt S3 werden die Bilddaten 14 und die synthetisch generierte Tiefenkarte 16a durch das System 10 verarbeitet, prozessiert, interpretiert und/oder ausgewertet. Optional kann in Schritt S3 eine erste
Interpretation 18a basierend auf den Bilddaten 14 und eine zweite Interpretation 18b basierend auf der Tiefenkarte 16a durch das System 10 ermittelt, erzeugt und/oder ausgegeben werden. Die Interpretationen 18a, 18b können jeweils eine Klasse von Objekten und/oder Wahrscheinlichkeitswerte für Objekte und/oder für Objektklassen aufweisen.
In einem weiteren Schritt S4 wird wenigstens ein Parameterwert wenigstens eines Parameters des Systems 10 angepasst und/oder verändert, so dass das System 10 basierend auf den prozessierten Bilddaten 14 und der prozessierten Tiefenkarte 16a angelernt wird. Hierzu können beispielsweise die
Interpretationen 18a, 18b in Rückwärtsrichtung durch das System 10 propagiert werden, wobei der Parameterwert des wenigstens einen Parameters unter Minimierung eines Erkennungsfehlers angepasst werden kann. Insbesondere können zum Anlernen des Systems 10 alle Parameterwerte aller Parameter des Systems angepasst werden. Beispielsweise können die Parameterwerte
Gewichte von Knotenpunkten eines neuronalen Netzes 12 sein. Die beiden Interpretationen 18a, 18b können auch zu einer finalen Interpretation 18c des Systems 10 verarbeitet werden, welche wiederum optional ausgegeben werden kann. Alternativ oder zusätzlich kann in Schritt S4 auch die finale Interpretation 18c sowie ein entsprechender Erkennungsfehler dieser Interpretation 18c zum Anlernen des Systems 10 und/oder zum Anpassen der Parameterwerte verwendet werden.
Zum Trainieren von seltenen Fällen, wie etwa optischen Täuschungen, kann das in der synthetischen Karte 16a in Schritt S1 erzeugte Objekt nur in der
Tiefenkarte 16a und nicht in den Bilddaten 14 enthalten sein. Auch können in den Bilddaten 14 und der Tiefenkarte 16a unterschiedliche Objekte vorhanden sein, so dass eine Diskrepanz zwischen Bilddaten 14 und Tiefenkarte 16a vorhanden ist. Dies kann wiederum dazu führen, dass die Interpretationen 18a, 18b voneinander abweichen. Bei einem Abweichen der Interpretationen 18a, 18b voneinander können ferner die Parameterwerte der Parameter des Systems 10 in Schritt S4 derart angepasst werden, dass die Interpretation 18b basierend auf der Tiefenkarte 16a gegenüber der Interpretation 18a basierend auf den
Bilddaten 14 bevorzugt wird. Gleichsam kann die finale Interpretation 18c bevorzugt mit der Interpretation 18b übereinstimmen und die Parameterwerte des Systems 10 können entsprechend gewählt werden.
Die Schritte S1 bis S4 können zum umfassenden Anlernen des Systems 10 mehrfach durchlaufen werden, wobei in den Schritten S1 stets unterschiedliche Tiefenkarten 16a mit relativ zueinander unterschiedlichen Objekten erzeugt werden und in das System 10 eingespeist werden können. Die Objekte in den Tiefenkarten 16a können sich dabei hinsichtlich einer Abmessung, Größe, Form, Geometrie, einer Position, eines Abstands und/oder beliebiger anderer Größen voneinander unterscheiden. Auf diese Weise kann das System 10 auf alle möglichen Objekte und Szenarien angelernt werden.
Fig. 3 zeigt ein Flussdiagramm zur Illustration von Schritten eines Verfahrens zum Betreiben eines Maschinen-Lern-Systems 10 gemäß einem
Ausführungsbeispiel der Erfindung. Sofern nicht anders beschrieben weist das in Bezug auf Figur 3 beschriebene System 10 dieselben Elemente und Merkmale wie das System 10 der Figur 1 auf. Ferner kann das System 10 der Figur 3 gemäß dem mit Bezug auf Figur 2 beschriebenen Verfahren angelernt sein. Das System 10 kann dabei insbesondere zur Objekterkennung in einem
Kraftfahrzeug eingerichtet sein.
In einem ersten Schritt S1 werden dem System Bilddaten 14, etwa einer Kamera des Kraftfahrzeugs, zugeführt. Ferner wird in Schritt S1 dem System 10 eine Tiefenkarte 16b mit Abstandsinformation, etwa von einer Stereokamera, einem Ultraschallsensor oder einem beliebigen anderen Abstandssensor, zugeführt.
In einem Schritt S2 werden die Bilddaten 14 und die Tiefenkarte 16b von dem System 10 verarbeitet, interpretiert und/oder analysiert. Das System 10 kann dabei basierend auf den Bilddaten 14 eine erste Interpretation 18a eines in den Bilddaten 14 abgebildeten Szenarios bestimmen. Ferner kann das System 10 eine zweite Interpretation 18b basierend auf der Tiefenkarte 16b bestimmen.
Die beiden Interpretationen 18a, 18b werden dann in einem Schritt S3 weiterverarbeitet und optional miteinander verglichen. Basierend auf den Interpretationen 18a, 18b wird in Schritt S3 eine finale Interpretation 18c des in den Bilddaten 14 und der Tiefenkarte 16b abgebildeten Szenarios bestimmt und/oder erstellt. Stimmen die beiden Interpretationen 18a, 18b nicht überein, so kann aus Sicherheitsgründen die Interpretation 18b basierend auf der Tiefenkarte 16b gegenüber der Interpretation 18a basierend auf den Bilddaten 14 bevorzugt werden.
Die finale Interpretation 18c kann ferner weiteren Komponenten des
Kraftfahrzeugs, wie etwa einem Steuergerät, zugeführt werden. Basierend auf der Interpretation 18c kann dann eine Reaktion des Fahrzeugs, wie
beispielsweise ein Bremsvorgang und/oder ein Ausweichmanöver, bestimmt, initiiert und/oder durchgeführt werden.
Ergänzend ist darauf hinzuweisen, dass„umfassend“ keine anderen Elemente ausschließt und„eine“ oder„ein“ keine Vielzahl ausschließt. Ferner sei darauf hingewiesen, dass Merkmale, die mit Verweis auf eines der obigen
Ausführungsbeispiele beschrieben worden sind, auch in Kombination mit anderen Merkmalen anderer oben beschriebener Ausführungsbeispiele verwendet werden können. Bezugszeichen in den Ansprüchen sind nicht als Einschränkung anzusehen.

Claims

Ansprüche
1. Verfahren zum Anlernen eines Maschinen-Lern-Systems (10), das Verfahren aufweisend die Schritte:
Einspeisen von Bilddaten (14) in ein Maschinen-Lern-System (10) unter Prozessieren zumindest eines Teils der Bilddaten (14) durch das Maschinen- Lern-System (10), dadurch gekennzeichnet, dass das Verfahren die folgende Schritte aufweist:
synthetisches Generieren wenigstens eines Teils wenigstens einer
Tiefenkarte (16a), welche eine Mehrzahl von Tiefeninformationswerten aufweist, wobei jeder der Tiefeninformationswerte mit einem Abstand zu einem Objekt korreliert;
Einspeisen der wenigstens einen Tiefenkarte (16a) in das Maschinen-Lern- System (10) unter Prozessieren zumindest eines Teils der
Tiefeninformationswerte der wenigstens einen Tiefenkarte (16a) durch das Maschinen-Lern-System (10); und
Anlernen des Maschinen-Lern-Systems (10) basierend auf den
prozessierten Bilddaten (14) und basierend auf den prozessierten
Tiefeninformationswerten der wenigstens einen Tiefenkarte (16a) unter Anpassen eines Parameterwertes wenigstens eines Parameters des
Maschinen-Lern-Systems (10);
wobei der angepasste Parameterwert eine Interpretation von Eingangsdaten durch das Maschinen-Lern-System (10) beeinflusst.
2. Verfahren nach Anspruch 1 ,
wobei das Verfahren ferner den Schritt des Zuordnens der Bilddaten (14) zu der wenigstens einen Tiefenkarte (16a) aufweist; und/oder
wobei der Parameterwert des Maschinen-Lern-Systems (10) in Abhängigkeit der prozessierten Bilddaten (14) und in Abhängigkeit der prozessierten Tiefeninformationswerte angepasst wird.
3. Verfahren nach einem der Ansprüche 1 oder 2,
wobei die Tiefenkarte (16a) eine Matrix und/oder eine Liste mit Einträgen umfasst, wobei jeder Eintrag ein Pixel einer Vorrichtung zur Erfassung von Tiefeninformation repräsentiert; und wobei ein Wert jedes Eintrages ein Tiefeninformationswert zur Angabe eines Abstandes zwischen der Vorrichtung und einem Objekt ist.
4. Verfahren nach einem der voranstehenden Ansprüche,
wobei die wenigstens eine Tiefenkarte (16a) Daten einer Stereokamera, einer Multi-View-Kamera, einer Abstandmessvorrichtung, einer
radarbasierten Abstandsmessvorrichtung, einer ultraschallbasierten
Abstandsmessvorrichtung und/oder einer laserbasierten
Abstandsmessvorrichtung repräsentiert.
5. Verfahren nach einem der voranstehenden Ansprüche, wobei der Schritt des synthetischen Generierens des wenigstens einen Teils der wenigstens einen Tiefenkarte (16a) ferner aufweist:
Definieren einer Mehrzahl von Tiefeninformationswerten der Tiefenkarte (16a) und Speichern der Mehrzahl von definierten Tiefeninformationswerten in der Tiefenkarte (16a).
6. Verfahren nach Anspruch 5, wobei die definierten Tiefeninformationswerte Werte zumindest einer Teilmenge von Einträgen der Tiefenkarte (16a) sind, welche Teilmenge einen zusammenhängenden Pixelbereich von Pixeln einer Vorrichtung zur Erfassung von Tiefeninformation repräsentiert, so dass durch Definieren der Tiefeninformationswerte eine Abstandsinformation bezüglich eines geometrisch zusammenhängenden Objektes in der
Tiefenkarte (16a) erzeugt ist.
7. Verfahren nach Anspruch 6,
wobei das geometrisch zusammenhängende Objekt ausschließlich in der wenigstens einen Tiefenkarte (16a) enthalten ist, so dass durch das synthetische Generieren des wenigstens einen Teils der wenigstens einen Tiefenkarte (16a) eine Diskrepanz zwischen den Bilddaten (14) und der wenigstens einen Tiefenkarte (16a) erzeugt ist.
8. Verfahren nach einem der Ansprüche 5 bis 7, wobei die Mehrzahl von
Tiefeninformationswerten derart definiert und/oder gewählt ist, dass ein Abstand zwischen der Vorrichtung und dem Objekt in einem Bereich zwischen 5 cm und 500 m, insbesondere zwischen 5 cm und 200 m, liegt.
9. Verfahren nach einem der voranstehenden Ansprüche, wobei der Parameterwert des wenigstens eines Parameters des Maschinen- Lern-Systems (10) derart angepasst wird, dass bei einer Diskrepanz zwischen den Bilddaten (14) und der wenigstens einen Tiefenkarte (16a) eine Interpretation der Tiefenkarte (16a) durch das Maschinen-Lern-System (10) gegenüber einer Interpretation der Bilddaten (14) bevorzugt wird.
10. Verfahren nach einem der voranstehenden Ansprüche, weiter aufweisend: synthetisches Generieren jeweils zumindest eines Teils einer Mehrzahl von Tiefenkarten (16a) unter Definieren einer Mehrzahl von
Tiefeninformationswerten jeder Tiefenkarte (16a); und
Anlernen des Maschinen-Lern-Systems (10) unter Prozessieren der Mehrzahl von synthetisch generierten Tiefenkarten (16a) durch das
Maschinen-Lern-System (10),
wobei die definierten Tiefeninformationswerte jeder Tiefenkarte (16a) jeweils einen zusammenhängenden Pixelbereich von Pixeln einer Vorrichtung zur Erfassung von Tiefeninformation repräsentieren, so dass durch Definieren der Tiefeninformationswerte jeder Tiefenkarte (16a) jeweils eine
Abstandsinformation bezüglich eines geometrisch zusammenhängenden Objektes in der jeweiligen Tiefenkarte (16a) erzeugt ist.
1 1. Verfahren nach Anspruch 10,
wobei sich die in den synthetisch generierten Tiefenkarten (16a) erzeugten Objekte hinsichtlich einer Kontur, einer Abmessung, einer Position und/oder eines Abstandes voneinander unterscheiden.
12. Verfahren nach einem der voranstehenden Ansprüche,
wobei das Maschinen-Lern-System (10) ein künstliches neuronales Netz (12), insbesondere ein mehrschichtiges künstliches neuronales Netz (12), ist; und/oder
wobei der wenigstens eine Parameter des Maschinen-Lern-Systems (10) ein Gewicht eines Knotenpunktes eines künstlichen neuronalen Netzes (12) ist.
13. Verwendung wenigstens einer zumindest teilweise synthetisch generierten Tiefenkarte (16a) in Kombination mit Bilddaten (14) zum Anlernen und/oder Trainieren eines Maschinen-Lern-Systems (10).
14. Verfahren zum Betreiben eines Maschinen-Lern-Systems (10) für ein Kraftfahrzeug,
wobei das Maschinen-Lern-System (10) durch ein Verfahren gemäß einem der Ansprüche 1 bis 12 angelernt ist.
15. Maschinen-Lern-System (10) zur Erkennung von Objekten für ein
Kraftfahrzeug,
wobei das Maschinen-Lern-System (10) durch ein Verfahren gemäß einem der Ansprüche 1 bis 12 angelernt ist.
EP18789090.0A 2017-12-04 2018-10-16 Trainieren und betreiben eines maschinen-lern-systems Pending EP3721370A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102017221765.0A DE102017221765A1 (de) 2017-12-04 2017-12-04 Trainieren und Betreiben eines Maschinen-Lern-Systems
PCT/EP2018/078177 WO2019110177A1 (de) 2017-12-04 2018-10-16 Trainieren und betreiben eines maschinen-lern-systems

Publications (1)

Publication Number Publication Date
EP3721370A1 true EP3721370A1 (de) 2020-10-14

Family

ID=63896157

Family Applications (1)

Application Number Title Priority Date Filing Date
EP18789090.0A Pending EP3721370A1 (de) 2017-12-04 2018-10-16 Trainieren und betreiben eines maschinen-lern-systems

Country Status (4)

Country Link
US (1) US11468687B2 (de)
EP (1) EP3721370A1 (de)
DE (1) DE102017221765A1 (de)
WO (1) WO2019110177A1 (de)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200143960A (ko) * 2019-06-17 2020-12-28 현대자동차주식회사 영상을 이용한 객체 인식 장치 및 그 방법
US11669593B2 (en) 2021-03-17 2023-06-06 Geotab Inc. Systems and methods for training image processing models for vehicle data collection
US11682218B2 (en) 2021-03-17 2023-06-20 Geotab Inc. Methods for vehicle data collection by image analysis
DE102021119906A1 (de) 2021-07-30 2023-02-02 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Erzeugen von Trainingsdaten zum selbstüberwachten Trainieren eines neuronalen Netzes, Verfahren zum selbstüberwachten Trainieren eines neuronalen Netzes, Computerprogramm sowie Recheneinrichtung für ein Fahrzeug

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008001256A1 (de) 2008-04-18 2009-10-22 Robert Bosch Gmbh Verkehrsobjekt-Erkennungssystem, Verfahren zum Erkennen eines Verkehrsobjekts und Verfahren zum Einrichten eines Verkehrsobjekt-Erkennungssystems
EP3688666A1 (de) * 2017-11-03 2020-08-05 Siemens Aktiengesellschaft Segmentierung und entrauschung von tiefenbildern für erkennungsanwendungen unter verwendung generativer kontradiktorischer neuronaler netzwerke
US10740876B1 (en) * 2018-01-23 2020-08-11 Facebook Technologies, Llc Systems and methods for generating defocus blur effects
RU2698402C1 (ru) * 2018-08-30 2019-08-26 Самсунг Электроникс Ко., Лтд. Способ обучения сверточной нейронной сети для восстановления изображения и система для формирования карты глубины изображения (варианты)

Also Published As

Publication number Publication date
WO2019110177A1 (de) 2019-06-13
US11468687B2 (en) 2022-10-11
DE102017221765A1 (de) 2019-06-06
US20210182577A1 (en) 2021-06-17

Similar Documents

Publication Publication Date Title
EP3721370A1 (de) Trainieren und betreiben eines maschinen-lern-systems
WO2019179946A1 (de) Erzeugung synthetischer radarsignale
DE102018129425B4 (de) System zur Erkennung eines Bearbeitungsfehlers für ein Laserbearbeitungssystem zur Bearbeitung eines Werkstücks, Laserbearbeitungssystem zur Bearbeitung eines Werkstücks mittels eines Laserstrahls umfassend dasselbe und Verfahren zur Erkennung eines Bearbeitungsfehlers eines Laserbearbeitungssystems zur Bearbeitung eines Werkstücks
EP3292510B1 (de) Verfahren und vorrichtung zur erkennung und bewertung von fahrbahnreflexionen
DE102018206208A1 (de) Verfahren, Vorrichtung, Erzeugnis und Computerprogramm zum Betreiben eines technischen Systems
DE102016212700A1 (de) Verfahren und System zur Steuerung eines Fahrzeugs
DE102008013366B4 (de) Verfahren zur Bereitstellung von Information für Fahrerassistenzsysteme
EP3631677A1 (de) Verfahren zur erkennung von objekten in einem bild einer kamera
DE102021002798A1 (de) Verfahren zur kamerabasierten Umgebungserfassung
DE112020006045T5 (de) Formal sicheres symbolisches bestärkendes lernen anhand von visuellen eingaben
EP3785169A1 (de) Verfahren und vorrichtung zur umsetzung eines eingangsbildes einer ersten domäne in ein ausgangsbild einer zweiten domäne
DE102022114201A1 (de) Neuronales Netz zur Objekterfassung und -Nachverfolgung
DE102019216206A1 (de) Vorrichtung und Verfahren zum Bestimmen einer Kehrtwendestrategie eines autonomen Fahrzeugs
WO2020051618A1 (de) Analyse dynamisscher räumlicher szenarien
DE102020128978A1 (de) Trainieren von tiefen neuronalen netzwerken mit synthetischen bildern
WO2021165077A1 (de) Verfahren und vorrichtung zur bewertung eines bildklassifikators
DE102020214596A1 (de) Verfahren zum Erzeugen von Trainingsdaten für ein Erkennungsmodell zum Erkennen von Objekten in Sensordaten einer Umfeldsensorik eines Fahrzeugs, Verfahren zum Erzeugen eines solchen Erkennungsmodells und Verfahren zum Ansteuern einer Aktorik eines Fahrzeugs
EP3748453A1 (de) Verfahren und vorrichtung zum automatischen ausführen einer steuerfunktion eines fahrzeugs
DE102020200503A1 (de) Verfahren zum Generieren von gelabelten Daten, insbesondere für das Training eines neuronalen Netzes, mittels Verbesserung initialer Label
DE102019214200A1 (de) Übersetzung von Trainingsdaten zwischen Beobachtungsmodalitäten
DE102018109680A1 (de) Verfahren zum Unterscheiden von Fahrbahnmarkierungen und Bordsteinen durch parallele zweidimensionale und dreidimensionale Auswertung; Steuereinrichtung; Fahrassistenzsystem; sowie Computerprogrammprodukt
DE102020126690A1 (de) Verfahren zum Bestimmen eines Bewegungsmodells eines Objekts in einer Umgebung eines Kraftfahrzeugs, Computerprogrammprodukt, computerlesbares Speichermedium sowie Assistenzsystem
WO2021175783A1 (de) Computerimplementiertes verfahren und system zum erzeugen synthetischer sensordaten und trainingsverfahren
DE102020202305A1 (de) Verfahren zum Erkennen einer Umgebung eines Fahrzeugs und Verfahren zum Trainieren eines Fusionsalgorithmus für ein Fahrzeugsystem
DE102019111608A1 (de) Verfahren zum Bestimmen einer Eigenbewegung eines Kraftfahrzeugs, elektronische Recheneinrichtung sowie elektronisches Fahrzeugführungssystem

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: UNKNOWN

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20200706

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

17Q First examination report despatched

Effective date: 20220930