WO2021148392A1 - Method and device for object identification on the basis of sensor data - Google Patents

Method and device for object identification on the basis of sensor data Download PDF

Info

Publication number
WO2021148392A1
WO2021148392A1 PCT/EP2021/051045 EP2021051045W WO2021148392A1 WO 2021148392 A1 WO2021148392 A1 WO 2021148392A1 EP 2021051045 W EP2021051045 W EP 2021051045W WO 2021148392 A1 WO2021148392 A1 WO 2021148392A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
data feature
sound data
feature maps
sound
Prior art date
Application number
PCT/EP2021/051045
Other languages
German (de)
French (fr)
Inventor
Raimund BOHL
William Harris Beluch
Original Assignee
Robert Bosch Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch Gmbh filed Critical Robert Bosch Gmbh
Publication of WO2021148392A1 publication Critical patent/WO2021148392A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Definitions

  • the invention relates to a method for identifying an object based on sensor data from various types of sensors.
  • the present invention relates to determining the presence or absence of an object in a surrounding area based on visual and acoustic information.
  • Optical detection sources such as cameras that record a surrounding area, are often used for this purpose. With the aid of object recognition, the presence of an object can then be recognized by evaluating the recorded image data.
  • a method for detecting a certain object in particular a (for example at least partially autonomous) robot such as a drone, in a surrounding area according to claim 1 and a corresponding device and a detection system according to the independent claims are achieved.
  • a computer-implemented method for detecting a (specific) object, in particular a (for example at least partially autonomous) robot such as a drone, in a surrounding area is provided, with the following steps:
  • Acquiring image data of at least one optical acquisition source Acquiring sound data from at least one microphone
  • the above method enables the detection of the presence of a certain object, in particular an object that emits sound at least during operation, in a surrounding area, in particular in a surrounding area, ie in a radius around a predetermined position, for example to detect the presence of a drone in the vicinity of a certain one Building.
  • image data from one or more optical detection sources such as B. surveillance cameras
  • sound data are used as acoustic sensor signals from one or more acoustic detection sources.
  • the visual detection of the presence of the specific object can be made more difficult by disturbed or noisy image data, such as a blurred or noisy image due to sensor noise, insufficient lighting at night or twilight shots or in unsuitable weather conditions or the like. This leads to false detections or non-detections of the existence of the particular object.
  • the combination of the information from both detection sources can significantly increase the detection reliability.
  • the additional information is used that results from the use of different detection sources, namely one or more optical detection sources (cameras) and one or more acoustic detection sources (microphones).
  • object detection can be carried out on the basis of image data that includes both the presence of an object and, optionally, the type of the recognized object.
  • image data feature extractor image data feature extractor
  • CNN convolutional neural network
  • Each of the feature extractors can have a number of different layers of provide learned feature maps, each of which has its own dimensionality depending on the depth of the layer.
  • One or more of these feature maps can be used in a feature extractor designed as an image classifier for visual object recognition in order to detect a specific object or a specific type of object.
  • the presence of the specific object can be indicated by a bounding frame, for which an object classification can furthermore be carried out.
  • the sound data can also be processed with a feature extractor (sound data feature extractor), in particular based on a convolutional neural network (CNN) for each acoustic detection source (microphone), for example based on a CNN, so that feature maps are obtained.
  • a feature extractor sound data feature extractor
  • CNN convolutional neural network
  • the classification results are each provided with uncertainty information by the respective classifier, which indicates how reliable the classification of the corresponding feature data from the feature extractors was.
  • image data feature maps and the sound data feature maps can be processed with a data-based classification model which is trained to recognize the presence of the specific object in the surrounding area.
  • classification results provided with uncertainty measures can be determined from the feature extractions as to whether a specific object is present or not.
  • the processing of the image data feature maps and the sound data feature maps can each be carried out with a weighting that is dependent on the degree of uncertainty.
  • the image data feature maps can each have an output from different layers of a convolutional neural network of the Image data feature extractor and / or the sound data feature cards each correspond to an output from different layers of a convolutional neural network of the sound data feature extractor.
  • the image data feature maps and / or the sound data feature maps can each be provided with an uncertainty measure.
  • a device for detecting a specific object comprising: at least one optical acquisition source for acquiring image data; at least one acoustic acquisition source for acquiring sound data; an image data feature extractor for generating one or more image data feature maps for the image data; a sound data feature extractor for generating one or more sound data feature maps for the sound data; a coordinator which is configured to process the one or more image data feature cards and the one or more sound data feature cards in order to provide an indication of the presence, which indicates whether the particular object is present in the surrounding area or not.
  • Figure 1 is a schematic representation of a
  • Figure 2 is a block diagram to illustrate the structure of a
  • FIG. 1 shows a schematic illustration for an object recognition system 1 using the example of recognition of the presence or absence of a drone 3 as a specific object in the vicinity of a building 2.
  • the object recognition system 1 comprises an object recognition device 4, which is connected to a camera system 5 comprising one or more cameras 51 (or other optical acquisition sources) for acquiring image signals and a microphone system 6 with one or more microphones 61 for acquiring sound signals.
  • a detection of the presence of a drone 3 as the specific object can be signaled by the object detection device 4 in a suitable manner, for example by outputting an alarm or the like with the aid of a signaling device 7.
  • the object recognition device 4 has a schematic structure as shown in FIG.
  • the image signals B from the cameras 51 are analyzed as image data using a convolutional neural network (CNN), such as a VGG-16 network, in order to create image data feature maps MB from the relevant camera image.
  • CNN convolutional neural network
  • the image data feature extractor 11 is trained so that one or more specific objects 3, such as. B. a drone can be detected.
  • the image data feature extractor 11 has a CNN with a plurality of layers in order to provide image data feature maps MB in each case.
  • the image data feature cards MB each correspond to the output of a layer.
  • the image data feature maps MB each have their own dimensionality depending on the depth of the respective layer.
  • image data feature maps MB can be used for object recognition in a detection module 12, so that a bounding frame is generated for each of the objects 3 determined in the vicinity of the object recognition device.
  • an image data Classifier 13 For each of the bounding frames, an image data Classifier 13, an object classification can be made which indicates the type of object 3 marked by the bounding frame. The classification can also recognize the type of the object 3, ie the type of drone for the present exemplary embodiment.
  • the sound signals received by one or more microphones 51 of the microphone system 5 can be analyzed.
  • the sound signals provided by the microphones 51 of the microphone system 5 can be unprocessed sound data or preprocessed sound data, such as e.g. B. as a Log-MEL spectrum.
  • the sound signal feature extractor 14 is trained so that the presence of one or more specific objects 3, such as. B. a drone can be detected.
  • the sound data feature extractor 14 has a multi-layered CNN to provide sound data feature maps MK, respectively.
  • the sound data feature cards MK each have their own dimensionality depending on the depth of the respective layer.
  • the sound data feature cards MK enable the recorded sound signal to be classified, which can indicate the presence or absence of a specific object, such as a drone, in the environment.
  • Uncertainty measures which indicate the prediction reliability can be provided for the classifications of the feature extractors 11, 14.
  • the uncertainty measures are provided for each of the feature maps so that the relevant feature map can be taken into account according to its reliability.
  • the degree of uncertainty of each feature map can thus be assumed in the form of a weighting of a consideration of the relevant feature map.
  • a coordinator 15 which carries out the common classification of the feature cards MB, MK, can be provided for the data fusion.
  • the feature maps are taken into account jointly by the two feature extractors 11, 14 as input data of the coordinator 15 and weighted with their corresponding forecast uncertainties.
  • the coordinator 15 includes a trainable data-based classification model that is trained to recognize the presence of the specific object on the basis of the feature maps.
  • the combined feature cards are fed to a classification module of the coordinator 15, which is parameterized by the classification parameters that undertake the final classification based on the presence of the specific object 3.
  • the classification module can have a CNN or a DNN and on the input side it can be adapted to the dimensionality of the feature cards MB, MK.
  • the classification module can be trained to provide an indication of whether a specific object, i.e. a drone 3, is in the vicinity of the object recognition system 1, depending on the feature maps MB, MK and the associated uncertainty measures.
  • the uncertainty measures for certain feature maps with regard to the classification parameters can be determined, for example, from a multiple classification of the image data or the sound data, so that the number of matching classification results indicates a measure for the prediction uncertainty. This is known, for example, from Lakshminarayanan, B. et al., “Simple and Scalable Predictive Uncertainty Estimation using Deep Ensembles”, NIPS, 2017.
  • the camera images and / or the Microphone data are each superimposed with different types of noise signals (in particular from a stochastic noise process) and the corresponding classification can be made.
  • the number of matching predictions about the presence or absence of the object can then indicate a measure of the prediction uncertainty for the feature maps.
  • the individual classification predictions with the corresponding uncertainty measure can then be used to determine the Uncertainty of the overall prediction about the presence or absence of an object can be combined.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

The invention relates to a method for detecting a specific object, in particular a drone, in a surrounding area, comprising the following steps: - capturing image data of at least one optical capturing source; - capturing sound data from at least one acoustic capturing source; - generating image data feature maps for the image data on the basis of an image data feature extractor; - generating sound data feature maps for the sound data on the basis of a sound data feature extractor; - processing the image data feature maps and the sound data feature maps in order to provide a statement of presence which states whether the specific object is or is not present in the surrounding area.

Description

Beschreibung description
Titel title
Verfahren und Vorrichtung zur Objektidentifikation basierend auf Sensordaten Method and device for object identification based on sensor data
Technisches Gebiet Technical area
Die Erfindung betrifft Verfahren zur Identifikation eines Objekts basierend auf Sensordaten von verschiedenartigen Sensoren. Insbesondere betrifft die vorliegende Erfindung das Feststellen eines Vorhandenseins oder Nicht- Vorhandenseins eines Objekts in einem Umgebungsbereich basierend auf visueller und akustischer Information. The invention relates to a method for identifying an object based on sensor data from various types of sensors. In particular, the present invention relates to determining the presence or absence of an object in a surrounding area based on visual and acoustic information.
Technischer Hintergrund Technical background
Verfahren zur Identifikation des Vorhandenseins eines Objekts sind bekannt. Häufig werden hierzu optische Erfassungsquellen, wie z.B. Kameras verwendet, die einen Umgebungsbereich aufzeichnen. Mithilfe einer Objekterkennung kann dann durch Auswerten der aufgezeichneten Bilddaten das Vorhandensein eines Objekts erkannt werden. Methods for identifying the presence of an object are known. Optical detection sources, such as cameras that record a surrounding area, are often used for this purpose. With the aid of object recognition, the presence of an object can then be recognized by evaluating the recorded image data.
Es existieren verschiedene etablierte Deep-Learning-Verfahren zur Objekterkennung und Klassifikation basierend auf Bilddaten. Diese verwenden in der Regel konvolutioneile neuronale Netzwerke als Merkmalsextraktoren in Verbindung mit einer Klassifikation, wie beispielsweise SSD, YOLO, Faster RCNN und dergleichen. There are various established deep learning methods for object recognition and classification based on image data. These usually use convolutional neural networks as feature extractors in connection with a classification, such as SSD, YOLO, Faster RCNN and the like.
Die Zuverlässigkeit solcher Objekterkennungssysteme ist begrenzt und hängt in erheblichem Maße von der Qualität der zu verarbeitenden Bilddaten ab. Offenbarung der Erfindung The reliability of such object recognition systems is limited and depends to a considerable extent on the quality of the image data to be processed. Disclosure of the invention
Erfindungsgemäß sind ein Verfahren zum Detektieren eines bestimmten Objekts, insbesondere eines (beispielsweise wenigstens teilweise autonomen) Roboters wie etwa einer Drohne, in einem Umgebungsbereich gemäß Anspruch 1 und eine entsprechende Vorrichtung und ein Detektionssystem gemäß den nebengeordneten Ansprüchen gelöst. According to the invention, a method for detecting a certain object, in particular a (for example at least partially autonomous) robot such as a drone, in a surrounding area according to claim 1 and a corresponding device and a detection system according to the independent claims are achieved.
Weitere Ausgestaltungen sind in den abhängigen Ansprüchen angegeben. Further refinements are given in the dependent claims.
Gemäß einem ersten Aspekt ist ein computer-implementiertes Verfahren zum Detektieren eines (bestimmten) Objekts, insbesondere eines (beispielsweise wenigstens teilweise autonomen) Roboters wie etwa einer Drohne, in einem Umgebungsbereich vorgesehen, mit folgenden Schritten: According to a first aspect, a computer-implemented method for detecting a (specific) object, in particular a (for example at least partially autonomous) robot such as a drone, in a surrounding area is provided, with the following steps:
Erfassen von Bilddaten mindestens einer optischen Erfassungsquelle; Erfassen von Klangdaten von mindestens einem Mikrofon; Acquiring image data of at least one optical acquisition source; Acquiring sound data from at least one microphone;
Generieren einer oder mehreren Bilddaten-Merkmalskarten für die Bilddaten basierend auf einem optischen Merkmalsextraktor; Generating one or more image data feature maps for the image data based on an optical feature extractor;
Generieren einer oder mehreren Klangdaten-Merkmalskarten für die Klangdaten basierend auf einem akustischen Merkmalsextraktor; Generating one or more sound data feature maps for the sound data based on an acoustic feature extractor;
Verarbeiten der einen oder den mehreren Bilddaten-Merkmalskarten und der einen oder den mehreren Klangdaten-Merkmalskarten, um eine Vorhandenseinsangabe bereitzustellen, die angibt, ob das bestimmte Objekt in dem Umgebungsbereich vorhanden ist oder nicht. Processing the one or more image data feature maps and the one or more sound data feature maps to provide an indication of presence indicating whether or not the particular object is present in the surrounding area.
Neben dem zuvor genannten Verfahren zur visuellen Objekterkennung und Identifikation sind weiterhin Verfahren zur akustischen Ereignisidentifikation sowie klassische Signalverarbeitungsverfahren, die auf akustischen Sensorsignalen beruhen, bekannt. In addition to the aforementioned method for visual object recognition and identification, methods for acoustic event identification and classic signal processing methods based on acoustic sensor signals are also known.
Das obige Verfahren ermöglicht die Detektion des Vorhandenseins eines bestimmten Objekts, insbesondere eines zumindest im Betrieb schallabgebendes Objekt, in einem Umgebungsbereich, insbesondere in einem Umgebungsbereich, d.h. in einem Umkreis um eine vorgegebene Position, beispielsweise zur Erkennung des Vorhandenseins einer Drohne in der Nähe eines bestimmten Gebäudes. Dazu werden als Eingangsdaten Bilddaten von einer oder mehreren optischen Erfassungsquellen, wie z. B. Überwachungskameras, und Klangdaten als akustische Sensorsignale von einem oder mehreren akustischen Erfassungsquellen verwendet. The above method enables the detection of the presence of a certain object, in particular an object that emits sound at least during operation, in a surrounding area, in particular in a surrounding area, ie in a radius around a predetermined position, for example to detect the presence of a drone in the vicinity of a certain one Building. For this purpose, image data from one or more optical detection sources, such as B. surveillance cameras, and sound data are used as acoustic sensor signals from one or more acoustic detection sources.
Jedoch kann beispielsweise die visuelle Erkennung des Vorhandenseins des bestimmten Objekts durch gestörte oder verrauschte Bilddaten erschwert werden, wie beispielsweise bei einem unscharfen oder verrauschten Bild aufgrund von Sensorrauschen, mangelnden Lichtverhältnissen bei Nacht oder Dämmerungsaufnahmen oder bei ungeeigneten Wetterbedingungen oder dergleichen. Dies führt zu Fehlerkennungen oder Nicht-Erkennungen des Vorhandenseins des bestimmten Objekts. However, for example, the visual detection of the presence of the specific object can be made more difficult by disturbed or noisy image data, such as a blurred or noisy image due to sensor noise, insufficient lighting at night or twilight shots or in unsuitable weather conditions or the like. This leads to false detections or non-detections of the existence of the particular object.
Gleichermaßen kann bei der Verwendung von Klangdaten der Umgebungsgeräusche und bei Vorliegen von starken Hintergrundgeräuschen, beeinträchtigenden Wetterbedingungen oder geringen Signalstärken der Klangsignale die Erkennung des Vorhandenseins des bestimmten Objekts unzuverlässig sein. Likewise, when using sound data of the ambient noise and in the presence of strong background noise, adverse weather conditions or low signal strengths of the sound signals, the detection of the presence of the particular object can be unreliable.
Die Kombination der Informationen aus beiden Erfassungsquellen kann die Erkennungszuverlässigkeit deutlich erhöhen. The combination of the information from both detection sources can significantly increase the detection reliability.
Mithilfe einer Sensordatenfusion kann die Vertrauenswürdigkeit der Erkennung eines Vorhandenseins oder Nicht-Vorhandenseins des bestimmten Objekts bzw. der Identifikation des bestimmten Objekts verbessert werden, so dass fehlerhafte Falscherkennungen (false positives) oder Nichterkennungen zuverlässiger vermieden werden können. Dazu wird die Zusatzinformation genutzt, die sich aus der Verwendung von verschiedenen Erfassungsquellen, nämlich von einer oder mehreren optischen Erfassungsquellen (Kameras) und einer oder mehreren akustischen Erfassungsquellen (Mikrofonen), ergeben. With the aid of a sensor data fusion, the trustworthiness of the detection of the presence or absence of the specific object or the identification of the specific object can be improved, so that erroneous false identifications (false positives) or non-identifications can be avoided more reliably. For this purpose, the additional information is used that results from the use of different detection sources, namely one or more optical detection sources (cameras) and one or more acoustic detection sources (microphones).
Durch die Nutzung eines Merkmalsextraktors (Bilddaten-Merkmalsextraktor), insbesondere basierend auf einem Konvolutionellen Neuronalen Netz (CNN) für jede optische Erfassungsquelle (Kamera), können Objekterkennungen auf Grundlage von Bilddaten vorgenommen werden, die sowohl das Vorhandensein eines Objekts als auch optional die Art des erkannten Objekts angeben können. Jeder der Merkmalsextraktoren kann eine Reihe von verschiedenen Schichten von gelernten Merkmalskarten bereitstellen, die jeweils eine eigene Dimensionalität abhängig von der Tiefe der Schicht aufweist. Eine oder mehrere dieser Merkmalskarten kann in einem als Bild-Klassifikator ausgebildeten Merkmalsextraktor für die visuelle Objekterkennung verwendet werden, um ein bestimmtes Objekt bzw. eine bestimmte Art von Objekt zu detektieren. Im Ergebnis kann das Vorhandensein des bestimmten Objekts durch einen Bounding-Rahmen angegeben werden, für den im Weiteren eine Objektklassifikation durchgeführt werden kann. By using a feature extractor (image data feature extractor), in particular based on a convolutional neural network (CNN) for each optical detection source (camera), object detection can be carried out on the basis of image data that includes both the presence of an object and, optionally, the type of the recognized object. Each of the feature extractors can have a number of different layers of provide learned feature maps, each of which has its own dimensionality depending on the depth of the layer. One or more of these feature maps can be used in a feature extractor designed as an image classifier for visual object recognition in order to detect a specific object or a specific type of object. As a result, the presence of the specific object can be indicated by a bounding frame, for which an object classification can furthermore be carried out.
Die Klangdaten können ebenfalls mit einem Merkmalsextraktor (Klangdaten- Merkmalsextraktor), insbesondere basierend auf einem Konvolutionellen Neuronalen Netz (CNN) für jede akustische Erfassungsquelle (Mikrofon), beispielsweise basierend auf einem CNN, verarbeitet werden, so dass Merkmalskarten erhalten werden. Diese werden von einem Klang-Klassifikator genutzt werden, um das bestimmte Objekt in der Umgebung zu identifizieren. The sound data can also be processed with a feature extractor (sound data feature extractor), in particular based on a convolutional neural network (CNN) for each acoustic detection source (microphone), for example based on a CNN, so that feature maps are obtained. These are used by a sound classifier to identify the particular object in the environment.
Die Klassifikationsergebnisse werden von den jeweiligen Klassifikatoren jeweils mit Unsicherheitsangaben versehen, die angeben, wie zuverlässig die Klassifikation der entsprechenden Merkmalsdaten aus den Merkmalsextraktoren war. The classification results are each provided with uncertainty information by the respective classifier, which indicates how reliable the classification of the corresponding feature data from the feature extractors was.
Weiterhin können die Bilddaten-Merkmalskarten und die Klangdaten- Merkmalskarten mit einem datenbasierten Klassifikationsmodell verarbeitet werden, das so trainiert ist, um das Vorhandensein des bestimmten Objekts in dem Umgebungsbereich zu erkennen. Furthermore, the image data feature maps and the sound data feature maps can be processed with a data-based classification model which is trained to recognize the presence of the specific object in the surrounding area.
Es kann dadurch vorgesehen sein, dass mit Unsicherheitsmaßen versehenen Klassifikationsergebnissen aus den Merkmalsextraktionen bestimmt werden kann, ob ein bestimmtes Objekt vorhanden ist oder nicht. It can thereby be provided that classification results provided with uncertainty measures can be determined from the feature extractions as to whether a specific object is present or not.
Insbesondere kann das Verarbeiten der Bilddaten-Merkmalskarten und der Klangdaten-Merkmalskarten jeweils mit einer von dem Unsicherheitsmaß abhängigen Gewichtung durchgeführt werden. In particular, the processing of the image data feature maps and the sound data feature maps can each be carried out with a weighting that is dependent on the degree of uncertainty.
Weiterhin können die Bilddaten-Merkmalskarten jeweils einem Ausgang aus verschiedenen Schichten eines konvolutioneilen neuronalen Netzes des Bilddaten-Merkmalsextraktors und/oder die Klangdaten-Merkmalskarten jeweils einem Ausgang aus verschiedenen Schichten eines konvolutioneilen neuronalen Netzes des Klangdaten-Merkmalsextraktors entsprechen. Furthermore, the image data feature maps can each have an output from different layers of a convolutional neural network of the Image data feature extractor and / or the sound data feature cards each correspond to an output from different layers of a convolutional neural network of the sound data feature extractor.
Gemäß einer Ausführungsform können die Bilddaten-Merkmalskarten und/oder die Klangdaten-Merkmalskarten jeweils mit einem Unsicherheitsmaß bereitgestellt werden. According to one embodiment, the image data feature maps and / or the sound data feature maps can each be provided with an uncertainty measure.
Gemäß einem weiteren Aspekt ist eine Vorrichtung zum Detektieren eines bestimmten Objekts, insbesondere einer Drohne, in einem Umgebungsbereich vorgesehen, umfassend: mindestens eine optische Erfassungsquelle zum Erfassen von Bilddaten; mindestens eine akustische Erfassungsquelle zum Erfassen von Klangdaten; einen Bilddaten-Merkmalsextraktor zum Generieren einer oder mehreren Bilddaten-Merkmalskarten für die Bilddaten; einen Klangdaten-Merkmalsextraktor zum Generieren einer oder mehreren Klangdaten-Merkmalskarten für die Klangdaten; einen Koordinator, der ausgebildet ist, um die eine oder die mehreren Bilddaten-Merkmalskarten und die eine oder die mehreren Klangdaten- Merkmalskarten zu verarbeiten, um eine Vorhandenseinsangabe bereitzustellen, die angibt, ob das bestimmte Objekt in dem Umgebungsbereich vorhanden ist oder nicht. According to a further aspect, a device for detecting a specific object, in particular a drone, in a surrounding area is provided, comprising: at least one optical acquisition source for acquiring image data; at least one acoustic acquisition source for acquiring sound data; an image data feature extractor for generating one or more image data feature maps for the image data; a sound data feature extractor for generating one or more sound data feature maps for the sound data; a coordinator which is configured to process the one or more image data feature cards and the one or more sound data feature cards in order to provide an indication of the presence, which indicates whether the particular object is present in the surrounding area or not.
Kurzbeschreibung der Zeichnungen Brief description of the drawings
Ausführungsformen werden nachfolgend anhand der beigefügten Zeichnungen näher erläutert. Es zeigen: Embodiments are explained in more detail below with reference to the accompanying drawings. Show it:
Figur 1 eine schematische Darstellung einesFigure 1 is a schematic representation of a
Objekterkennungssystems am Beispiel einer Erkennung eines Vorhandenseins oder Nichtvorhandenseins einer Drohne in der Umgebung eines Gebäudes; und Object recognition system using the example of recognition of the presence or absence of a drone in the vicinity of a building; and
Figur 2 ein Blockdiagramm zur Veranschaulichung des Aufbaus einer Figure 2 is a block diagram to illustrate the structure of a
Objekterkennungseinrichtung. Beschreibung von Ausführungsformen Object recognition device. Description of embodiments
Figur 1 zeigt eine schematische Darstellung für ein Objekterkennungssystem 1 am Beispiel einer Erkennung des Vorhandenseins oder Nichtvorhandenseins einer Drohne 3 als ein bestimmtes Objekt im Umfeld eines Gebäudes 2. FIG. 1 shows a schematic illustration for an object recognition system 1 using the example of recognition of the presence or absence of a drone 3 as a specific object in the vicinity of a building 2.
Das Objekterkennungssystem 1 umfasst eine Objekterkennungseinrichtung 4, die mit einem Kamerasystem 5 aus einer oder mehreren Kameras 51 (oder sonstigen optischen Erfassungsquellen) zur Erfassung von Bildsignalen und einem Mikrofonsystem 6 mit einem oder mehreren Mikrofonen 61 zur Erfassung von Klangsignalen verbunden ist. Eine Erkennung des Vorhandenseins einer Drohne 3 als das bestimmte Objekt kann von der Objekterkennungseinrichtung 4 in geeigneter Weise signalisiert werden, beispielsweise durch Ausgeben eines Alarms oder dergleichen mithilfe einer Signalisierungseinrichtung 7. The object recognition system 1 comprises an object recognition device 4, which is connected to a camera system 5 comprising one or more cameras 51 (or other optical acquisition sources) for acquiring image signals and a microphone system 6 with one or more microphones 61 for acquiring sound signals. A detection of the presence of a drone 3 as the specific object can be signaled by the object detection device 4 in a suitable manner, for example by outputting an alarm or the like with the aid of a signaling device 7.
Die Objekterkennungseinrichtung 4 weist einen schematischen Aufbau auf, wie er in Figur 2 dargestellt ist. The object recognition device 4 has a schematic structure as shown in FIG.
In einem Bilddaten-Merkmalsextraktor 11 werden die Bildsignale B der Kameras 51 als Bilddaten jeweils mithilfe eines konvolutioneilen neuronalen Netz (CNN), wie z.B. mithilfe eines VGG-16 Netzwerks, analysiert, um Bilddaten- Merkmalskarten MB aus dem betreffenden Kamerabild zu erstellen. Der Bilddaten- Merkmalsextraktor 11 ist so trainiert, dass ein oder mehrere bestimmte Objekte 3, wie z. B. eine Drohne, erkannt werden können. Der Bilddaten-Merkmalsextraktor 11 weist ein CNN mit mehreren Schichten auf, um jeweils Bilddaten- Merkmalskarten MB bereitzustellen. Die Bilddaten-Merkmalskarten MB entsprechend jeweils dem Ausgang einer Schicht. Die Bilddaten-Merkmalskarten MB weisen jeweils eine eigene Dimensionalität abhängig von der Tiefe der jeweiligen Schicht auf. In an image data feature extractor 11, the image signals B from the cameras 51 are analyzed as image data using a convolutional neural network (CNN), such as a VGG-16 network, in order to create image data feature maps MB from the relevant camera image. The image data feature extractor 11 is trained so that one or more specific objects 3, such as. B. a drone can be detected. The image data feature extractor 11 has a CNN with a plurality of layers in order to provide image data feature maps MB in each case. The image data feature cards MB each correspond to the output of a layer. The image data feature maps MB each have their own dimensionality depending on the depth of the respective layer.
Ein Teil dieser Bilddaten-Merkmalskarten MB kann für die Objekterkennung in einem Detektionsmodul 12 verwendet werden, so dass ein Bounding-Rahmen für jedes der in der Umgebung der Objekterkennungseinrichtung bestimmten Objekte 3 generiert wird. Für jeden der Bounding-Rahmen kann in einem Bilddaten- Klassifikator 13 eine Objektklassifikation vorgenommen werden, die die Art des von dem Bounding-Rahmen markierten Objekts 3 angibt. Die Klassifikation kann zudem auch den Typ des Objekts 3, d. h. den Typ der Drohne für das vorliegende Ausführungsbeispiel, erkennen. Some of these image data feature maps MB can be used for object recognition in a detection module 12, so that a bounding frame is generated for each of the objects 3 determined in the vicinity of the object recognition device. For each of the bounding frames, an image data Classifier 13, an object classification can be made which indicates the type of object 3 marked by the bounding frame. The classification can also recognize the type of the object 3, ie the type of drone for the present exemplary embodiment.
Mithilfe eines Klangsignal-Merkmalsextraktors 14 können die von einem oder mehreren Mikrofonen 51 des Mikrofonsystems 5 empfangenen Klangsignale analysiert werden. Die von den Mikrofonen 51 des Mikrofonsystems 5 bereitgestellten Klangsignale können unbearbeitete Klangdaten oder vorverarbeitete Klangdaten, wie z. B. als Log-MEL-Spektrum, umfassen. With the aid of a sound signal feature extractor 14, the sound signals received by one or more microphones 51 of the microphone system 5 can be analyzed. The sound signals provided by the microphones 51 of the microphone system 5 can be unprocessed sound data or preprocessed sound data, such as e.g. B. as a Log-MEL spectrum.
Der Klangsignal-Merkmalsextraktor 14 ist so trainiert, dass das Vorhandensein eines oder mehrerer bestimmten Objekte 3, wie z. B. eine Drohne, erkannt werden kann. Der Klangdaten-Merkmalsextraktor 14 weist ein CNN mit mehreren Schichten auf, um jeweils Klangdaten-Merkmalskarten MK bereitzustellen. Die Klangdaten-Merkmalskarten MK weisen jeweils eine eigene Dimensionalität abhängig von der Tiefe der jeweiligen Schicht auf. The sound signal feature extractor 14 is trained so that the presence of one or more specific objects 3, such as. B. a drone can be detected. The sound data feature extractor 14 has a multi-layered CNN to provide sound data feature maps MK, respectively. The sound data feature cards MK each have their own dimensionality depending on the depth of the respective layer.
Die Klangdaten-Merkmalskarten MK ermöglichen eine Klassifikation des erfassten Klangsignals, die das Vorhandensein oder Nichtvorhandensein eines bestimmten Objekts, wie beispielsweise einer Drohne, in der Umgebung angeben kann. The sound data feature cards MK enable the recorded sound signal to be classified, which can indicate the presence or absence of a specific object, such as a drone, in the environment.
Zu den Klassifikationen der Merkmalsextraktoren 11, 14 können Unsicherheitsmaße, die die Vorhersagezuverlässigkeit angeben, bereitgestellt werden. Die Unsicherheitsmaße werden für jede der Merkmalskarten bereitgestellt, so dass die betreffende Merkmalskarte entsprechend ihrer Zuverlässigkeit berücksichtigt werden kann. So kann das Unsicherheitsmaß jeder Merkmalskarte in Form einer Gewichtung einer Berücksichtigung der betreffenden Merkmalskarte angenommen werden. Uncertainty measures which indicate the prediction reliability can be provided for the classifications of the feature extractors 11, 14. The uncertainty measures are provided for each of the feature maps so that the relevant feature map can be taken into account according to its reliability. The degree of uncertainty of each feature map can thus be assumed in the form of a weighting of a consideration of the relevant feature map.
Für die Datenfusion kann ein Koordinator 15 vorgesehen sein, der die gemeinsame Klassifikation der Merkmalskarten MB, MK vornimmt. Dazu werden die Merkmalskarten von den zwei Merkmalsextraktoren 11, 14 gemeinsam als Eingangsdaten des Koordinators 15 berücksichtigt und mit ihren entsprechenden Vorhersageunsicherheiten gewichtet. Der Koordinator 15 umfasst ein trainierbares datenbasiertes Klassifikationsmodell, das so trainiert ist, um anhand der Merkmalskarten das Vorhandensein des bestimmten Objekts zu erkennen. A coordinator 15, which carries out the common classification of the feature cards MB, MK, can be provided for the data fusion. For this purpose, the feature maps are taken into account jointly by the two feature extractors 11, 14 as input data of the coordinator 15 and weighted with their corresponding forecast uncertainties. The coordinator 15 includes a trainable data-based classification model that is trained to recognize the presence of the specific object on the basis of the feature maps.
Die kombinierten Merkmalskarten werden einem Klassifikationsmodul des Koordinators 15 zugeführt, das durch die Klassifikationsparameter parametriert ist, die die abschließende Klassifikation über das Vorhandensein des bestimmten Objekts 3 vornimmt. Das Klassifikationsmodul kann ein CNN oder ein DNN aufweisen und eingangsseitig an die Dimensionalität der Merkmalskarten MB, MK angepasst sein. Das Klassifikationsmodul kann zum einen trainiert sein, um abhängig von den Merkmalskarten MB, MK und den zugeordneten Unsicherheitsmaßen eine Angabe bereitzustellen, ob sich ein bestimmtes Objekt, d.h. eine Drohne 3 im Umgebungsbereich der Objekterkennungssystem 1 befindet. The combined feature cards are fed to a classification module of the coordinator 15, which is parameterized by the classification parameters that undertake the final classification based on the presence of the specific object 3. The classification module can have a CNN or a DNN and on the input side it can be adapted to the dimensionality of the feature cards MB, MK. On the one hand, the classification module can be trained to provide an indication of whether a specific object, i.e. a drone 3, is in the vicinity of the object recognition system 1, depending on the feature maps MB, MK and the associated uncertainty measures.
Wenn ein Bounding-Rahmen oder ein Typ des Objekts ausgegeben werden soll, muss dies in den Trainingsdaten, mit denen der Koordinator trainiert wird, berücksichtigt werden. If a bounding frame or a type of the object is to be output, this must be taken into account in the training data with which the coordinator is trained.
Die Unsicherheitsmaße für bestimmte Merkmalskarten hinsichtlich der Klassifikationsparameter können beispielsweise aus einer mehrfachen Klassifikation der Bilddaten oder der Klangdaten bestimmt werden, so dass die Anzahl der übereinstimmenden Klassifikationsergebnisse ein Maß für die Vorhersageunsicherheit angibt. Dies ist beispielsweise aus Lakshminarayanan, B. et al., “Simple and Scalable Predictive Uncertainty Estimation using Deep Ensembles”, NIPS, 2017 bekannt. The uncertainty measures for certain feature maps with regard to the classification parameters can be determined, for example, from a multiple classification of the image data or the sound data, so that the number of matching classification results indicates a measure for the prediction uncertainty. This is known, for example, from Lakshminarayanan, B. et al., “Simple and Scalable Predictive Uncertainty Estimation using Deep Ensembles”, NIPS, 2017.
Weiterhin können mithilfe eines sogenannten Monte-Carlo-Dropout-Verfahrens, wie beispielsweise aus Gal, Y. et al., „Dropout as a Bayesian Approximation: Representing Model Uncertainty in Deep Learning“, ICML, 2016 bekannt, die Kamerabilder und/oder die Mikrofondaten jeweils mit verschiedenartigen Rauschsignalen (insbesondere aus einem stochastic noise process) überlagert werden und die entsprechende Klassifikation vorgenommen werden. Die Anzahl der übereinstimmenden Vorhersagen über das Vorhandensein oder Nichtvorhandensein des Objekts kann dann ein Maß der Vorhersageunsicherheit für die Merkmalskarten angeben. Die individuellen Klassifikationsvorhersagen mit dem entsprechendem Unsicherheitsmaß können dann zum Bestimmen der Unsicherheit der Gesamtvorhersage über das Vorhandensein oder Nichtvorhandensein eines Objekts kombiniert werden. Furthermore, using a so-called Monte Carlo dropout method, as known from Gal, Y. et al., “Dropout as a Bayesian Approximation: Representing Model Uncertainty in Deep Learning”, ICML, 2016, the camera images and / or the Microphone data are each superimposed with different types of noise signals (in particular from a stochastic noise process) and the corresponding classification can be made. The number of matching predictions about the presence or absence of the object can then indicate a measure of the prediction uncertainty for the feature maps. The individual classification predictions with the corresponding uncertainty measure can then be used to determine the Uncertainty of the overall prediction about the presence or absence of an object can be combined.

Claims

Ansprüche Expectations
1. Verfahren zum Detektieren eines Objekts, insbesondere eines Roboters, in einem Umgebungsbereich, mit folgenden Schritten: 1. A method for detecting an object, in particular a robot, in a surrounding area, with the following steps:
Erfassen von Bilddaten mindestens einer optischen Erfassungsquelle; Erfassen von Klangdaten von mindestens einer akustischen Erfassungsquelle; Acquiring image data of at least one optical acquisition source; Acquiring sound data from at least one acoustic acquisition source;
Generieren einer oder mehreren Bilddaten-Merkmalskarten für die Bilddaten basierend auf einem Bilddaten-Merkmalsextraktor; Generieren einer oder mehreren Klangdaten-Merkmalskarten für die Klangdaten basierend auf einem Klangdaten-Merkmalsextraktor; Verarbeiten der einen oder den mehreren Bilddaten-Merkmalskarten und der einen oder den mehreren Klangdaten-Merkmalskarten, um eine Vorhandenseinsangabe bereitzustellen, die angibt, ob das bestimmte Objekt in dem Umgebungsbereich vorhanden ist oder nicht. Generating one or more image data feature maps for the image data based on an image data feature extractor; Generating one or more sound data feature maps for the sound data based on a sound data feature extractor; Processing the one or more image data feature maps and the one or more sound data feature maps to provide an indication of presence indicating whether or not the particular object is present in the surrounding area.
2. Verfahren nach Anspruch 1, wobei die Bilddaten-Merkmalskarten jeweils einem Ausgang aus verschiedenen Schichten eines konvolutioneilen neuronalen Netzes des Bilddaten-Merkmalsextraktors und/oder wobei die Klangdaten- Merkmalskarten jeweils einem Ausgang aus verschiedenen Schichten eines konvolutioneilen neuronalen Netzes des Klangdaten-Merkmalsextraktors entsprechen. 2. The method according to claim 1, wherein the image data feature cards each correspond to an output from different layers of a convolutional neural network of the image data feature extractor and / or wherein the sound data feature cards each correspond to an output from different layers of a convolutional neural network of the sound data feature extractor.
3. Verfahren nach Anspruch 1 oder 2, wobei die Bilddaten-Merkmalskarten und die Klangdaten-Merkmalskarten mit einem datenbasierten Klassifikationsmodell verarbeitet werden, das so trainiert ist, um das Vorhandensein des bestimmten Objekts in dem Umgebungsbereich zu erkennen. 3. The method of claim 1 or 2, wherein the image data feature maps and the sound data feature maps are processed with a data-based classification model that is trained to recognize the presence of the specific object in the surrounding area.
4. Verfahren nach Anspruch 3, wobei die Bilddaten-Merkmalskarten und/oder die Klangdaten-Merkmalskarten jeweils mit einem Unsicherheitsmaß bereitgestellt werden. 4. The method according to claim 3, wherein the image data feature maps and / or the sound data feature maps are each provided with an uncertainty measure.
5. Verfahren nach Anspruch 4, wobei das Verarbeiten der Bilddaten- Merkmalskarten und der Klangdaten-Merkmalskarten jeweils mit einer von dem Unsicherheitsmaß abhängigen Gewichtung durchgeführt wird. 5. The method according to claim 4, wherein the processing of the image data feature maps and the sound data feature maps is each carried out with a weighting that is dependent on the degree of uncertainty.
6. Vorrichtung zum Detektieren eines bestimmten Objekts, insbesondere einer Drohne, in einem Umgebungsbereich, umfassend: mindestens eine optische Erfassungsquelle zum Erfassen von Bilddaten; mindestens eine akustische Erfassungsquelle zum Erfassen von Klangdaten; einen Bilddaten-Merkmalsextraktor zum Generieren einer oder mehreren Bilddaten-Merkmalskarten für die Bilddaten; einen Klangdaten-Merkmalsextraktor zum Generieren einer oder mehreren Klangdaten-Merkmalskarten für die Klangdaten; einen Koordinator, der ausgebildet ist, um die eine oder die mehreren Bilddaten-Merkmalskarten und die eine oder die mehreren Klangdaten- Merkmalskarten zu verarbeiten, um eine Vorhandenseinsangabe bereitzustellen, die angibt, ob das bestimmte Objekt in dem Umgebungsbereich vorhanden ist oder nicht. 6. A device for detecting a specific object, in particular a drone, in a surrounding area, comprising: at least one optical acquisition source for acquiring image data; at least one acoustic acquisition source for acquiring sound data; an image data feature extractor for generating one or more image data feature maps for the image data; a sound data feature extractor for generating one or more sound data feature maps for the sound data; a coordinator which is configured to process the one or more image data feature cards and the one or more sound data feature cards in order to provide an indication of the presence, which indicates whether the particular object is present in the surrounding area or not.
7. Computerprogramm mit Programmcodemitteln, das dazu eingerichtet ist, ein Verfahren nach einem der Ansprüche 1 bis 5 auszuführen, wenn das Computerprogramm auf einer Recheneinheit ausgeführt wird. 7. A computer program with program code means which is set up to carry out a method according to any one of claims 1 to 5 when the computer program is run on a computing unit.
8. Maschinenlesbares Speichermedium mit einem darauf gespeicherten Computerprogramm nach Anspruch 7. 8. Machine-readable storage medium with a computer program according to claim 7 stored thereon.
PCT/EP2021/051045 2020-01-24 2021-01-19 Method and device for object identification on the basis of sensor data WO2021148392A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102020200847.7 2020-01-24
DE102020200847.7A DE102020200847A1 (en) 2020-01-24 2020-01-24 Method and device for object identification based on sensor data

Publications (1)

Publication Number Publication Date
WO2021148392A1 true WO2021148392A1 (en) 2021-07-29

Family

ID=74194743

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2021/051045 WO2021148392A1 (en) 2020-01-24 2021-01-19 Method and device for object identification on the basis of sensor data

Country Status (2)

Country Link
DE (1) DE102020200847A1 (en)
WO (1) WO2021148392A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117711436B (en) * 2024-02-05 2024-04-09 中国电子科技集团公司第十五研究所 Far-field sound classification method and device based on multi-sensor fusion

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180129881A1 (en) * 2016-11-08 2018-05-10 Dedrone Holdings, Inc. Systems, Methods, Apparatuses, and Devices for Identifying, Tracking, and Managing Unmanned Aerial Vehicles

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180129881A1 (en) * 2016-11-08 2018-05-10 Dedrone Holdings, Inc. Systems, Methods, Apparatuses, and Devices for Identifying, Tracking, and Managing Unmanned Aerial Vehicles

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
ANONYMOUS: "Convolutional neural network - Wikipedia", 29 July 2019 (2019-07-29), XP055735969, Retrieved from the Internet <URL:https://en.wikipedia.org/w/index.php?title=Convolutional_neural_network&oldid=908472838#Image_recognition> [retrieved on 20201001] *
BALAJI LAKSHMINARAYANAN ET AL: "Simple and Scalable Predictive Uncertainty Estimation using Deep Ensembles", ARXIV.ORG, 27 February 2017 (2017-02-27), XP055619541, Retrieved from the Internet <URL:https://arxiv.org/pdf/1612.01474v2.pdf> [retrieved on 20190906] *
GAL, Y. ET AL.: "Dropout as a Bayesian Approximation: Representing Model Uncertainty in Deep Learning", ICML, 2016
LAKSHMINARAYANAN, B ET AL.: "Simple and Scalable Predictive Uncertainty Estimation using Deep Ensembles", NIPS, 2017
LIU HAO ET AL: "Drone Detection Based on an Audio-Assisted Camera Array", 2017 IEEE THIRD INTERNATIONAL CONFERENCE ON MULTIMEDIA BIG DATA (BIGMM), IEEE, 19 April 2017 (2017-04-19), pages 402 - 406, XP033113590, DOI: 10.1109/BIGMM.2017.57 *

Also Published As

Publication number Publication date
DE102020200847A1 (en) 2021-07-29

Similar Documents

Publication Publication Date Title
DE102019106204A1 (en) Decompression of ultrasonic signals that have been compressed using signal object classes
DE102020214860A1 (en) SYSTEM AND PROCEDURE FOR DETECTING A MALICIOUS ATTACK
DE102017006155A1 (en) Method for operating a sensor system of a vehicle
DE102017209262A1 (en) Method and device for automatic gesture recognition
DE102019207711A1 (en) Method and device for the detection of smoke
DE102018214959A1 (en) Process for evaluating sensor data with extended object recognition
DE102019206720B4 (en) Monitoring of an AI module of a driving function of a vehicle
WO2021148392A1 (en) Method and device for object identification on the basis of sensor data
CN111291672B (en) Combined image text recognition and fuzzy judgment method, device and storage medium
DE102022209403A1 (en) Method for checking the performance of a prediction task by a neural network
DE102021204040A1 (en) Method, device and computer program for creating training data in the vehicle
EP3701428B1 (en) Method and apparatus for improving the robustness of a machine learning system
DE102021207849A1 (en) Method for retraining a video surveillance device, computer program, storage medium and video surveillance device
EP3772017A1 (en) Rail signal detection for autonomous railway vehicles
DE102019220615A1 (en) Method and device for recognizing and classifying objects
DE102020204140A1 (en) Device and automated method for evaluating sensor readings and using the device
DE102020200946A1 (en) Method and device for the detection of acoustic anomalies
DE102019209228A1 (en) Method and device for checking the robustness of an artificial neural network
DE102018221661A1 (en) Method of identifying a person&#39;s smoking
EP3629242A1 (en) Method for configuring an image evaluating device and image evaluation method and image evaluating device
WO2018019480A1 (en) Concept for monitoring a car park for motor vehicles
DE102022203067A1 (en) Method for recognizing objects in image data
DE102023200143A1 (en) Method and system for reliably detecting objects in the environment of a motor vehicle
DE102022208384A1 (en) Method for determining a quality condition of a test object
WO2024013135A1 (en) Method for training a machine learning algorithm to assign a confidence value to each of a plurality of object detection results

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21701113

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21701113

Country of ref document: EP

Kind code of ref document: A1