DE102019219927A1 - Method and device for recognizing an alienation of a sensor data domain from a reference data domain - Google Patents
Method and device for recognizing an alienation of a sensor data domain from a reference data domain Download PDFInfo
- Publication number
- DE102019219927A1 DE102019219927A1 DE102019219927.5A DE102019219927A DE102019219927A1 DE 102019219927 A1 DE102019219927 A1 DE 102019219927A1 DE 102019219927 A DE102019219927 A DE 102019219927A DE 102019219927 A1 DE102019219927 A1 DE 102019219927A1
- Authority
- DE
- Germany
- Prior art keywords
- sensor data
- sensor
- alienation
- data
- distances
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/28—Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
- G06T7/001—Industrial image inspection using an image reference approach
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/98—Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
- G06V10/993—Evaluation of the quality of the acquired pattern
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/862—Combination of radar systems with sonar systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/865—Combination of radar systems with lidar systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/89—Radar or analogous systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/86—Combinations of sonar systems with lidar systems; Combinations of sonar systems with systems not using wave reflection
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/88—Sonar systems specially adapted for specific applications
- G01S15/93—Sonar systems specially adapted for specific applications for anti-collision purposes
- G01S15/931—Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9323—Alternative operation using light waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9324—Alternative operation using ultrasonic waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/023—Interference mitigation, e.g. reducing or avoiding non-intentional interference with other HF-transmitters, base station transmitters for mobile communication or other radar systems, e.g. using electro-magnetic interference [EMI] reduction techniques
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/36—Means for anti-jamming, e.g. ECCM, i.e. electronic counter-counter measures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/495—Counter-measures or counter-counter-measures using electronic or electro-optical means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24137—Distances to cluster centroïds
- G06F18/2414—Smoothing the distance, e.g. radial basis function networks [RBFN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- Quality & Reliability (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Electromagnetism (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Navigation (AREA)
- Traffic Control Systems (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zum Erkennen einer Entfremdung einer Sensordatendomäne von einer Referenzdatendomäne, wobei erfasste Sensordaten (10) mindestens eines Sensors (51) empfangen werden, wobei mittels eines Distanzmaßes jeweils Distanzen (11) zwischen Teilausschnitten (23) der empfangenen Sensordaten (10) und zum stückweisen Ersetzen mittels Quilting der Sensordaten (10) verwendeten und der Referenzdatendomäne angehörenden Sensordatenpatches (60) bestimmt werden oder solche Distanzen (11) erhalten werden, und wobei ein Entfremdungssignal (21) in Abhängigkeit der bestimmten Distanzen (11) erzeugt und bereitgestellt wird. Ferner betrifft die Erfindung eine Vorrichtung (1) zum Erkennen einer Entfremdung einer Sensordatendomäne von einer Referenzdatendomäne, ein Kraftfahrzeug (50) mit mindestens einer solchen Vorrichtung (1) sowie ein Computerprogramm und ein Datenträgersignal. The invention relates to a method for recognizing the alienation of a sensor data domain from a reference data domain, with recorded sensor data (10) being received from at least one sensor (51), with distances (11) between partial sections (23) of the received sensor data (10) being used. and sensor data patches (60) used piece by piece by means of quilting of the sensor data (10) and belonging to the reference data domain are determined or such distances (11) are obtained, and an alienation signal (21) is generated and provided as a function of the determined distances (11) . The invention also relates to a device (1) for recognizing the alienation of a sensor data domain from a reference data domain, a motor vehicle (50) with at least one such device (1) as well as a computer program and a data carrier signal.
Description
Die Erfindung betrifft ein Verfahren und eine Vorrichtung zum Erkennen einer Entfremdung einer Sensordatendomäne von einer Referenzdatendomäne. Ferner betrifft die Erfindung ein Kraftfahrzeug, ein Computerprogramm und ein Datenträgersignal.The invention relates to a method and a device for recognizing an alienation of a sensor data domain from a reference data domain. The invention also relates to a motor vehicle, a computer program and a data carrier signal.
Maschinelles Lernen, beispielsweise auf Grundlage von Neuronalen Netzen, hat großes Potenzial für eine Anwendung in modernen Fahrerassistenzsystemen und automatisiert fahrenden Kraftfahrzeugen. Auf tiefen Neuronalen Netzen basierende Funktionen verarbeiten hierbei Sensordaten (zum Beispiel von Kameras, Radar- oder Lidarsensoren), um hieraus relevante Informationen abzuleiten. Diese Informationen umfassen zum Beispiel eine Art und eine Position von Objekten in einem Umfeld des Kraftfahrzeugs, ein Verhalten der Objekte oder eine Fahrbahngeometrie oder -topologie.Machine learning, for example based on neural networks, has great potential for use in modern driver assistance systems and automated vehicles. Functions based on deep neural networks process sensor data (e.g. from cameras, radar or lidar sensors) in order to derive relevant information from it. This information includes, for example, a type and a position of objects in the surroundings of the motor vehicle, a behavior of the objects or a road geometry or topology.
Unter den Neuronalen Netzen haben sich insbesondere Faltungsnetze (engl. Convolutional Neural Networks, CNN) als besonders geeignet für Anwendungen in der Bildverarbeitung erwiesen. Faltungsnetze extrahieren in unüberwachter Form stufenweise verschiedene hochwertige Merkmale aus Eingangsdaten (z.B. Bilddaten). Das Faltungsnetz entwickelt hierbei während einer Trainingsphase eigenständig Merkmalskarten basierend auf Filterkanälen, die die Eingangsdaten lokal verarbeiten, um hierdurch lokale Eigenschaften abzuleiten. Diese Merkmalskarten werden dann erneut von weiteren Filterkanälen verarbeitet, die daraus höherwertigere Merkmalskarten ableiten. Auf Grundlage dieser derart aus den Eingangsdaten verdichteten Informationen leitet das tiefe Neuronale Netz schließlich seine Entscheidung ab und stellt diese als Ausgangsdaten bereit.Among the neural networks, in particular convolutional neural networks (CNN) have proven to be particularly suitable for applications in image processing. Convolution networks gradually extract various high-quality features from input data (e.g. image data) in an unsupervised form. During a training phase, the convolution network independently develops feature maps based on filter channels that process the input data locally in order to derive local properties. These feature cards are then processed again by further filter channels, which derive more valuable feature cards from them. On the basis of this information compressed from the input data, the deep neural network finally derives its decision and makes it available as output data.
Während Faltungsnetze klassische Ansätze an funktionaler Genauigkeit übertreffen, besitzen diese jedoch auch Nachteile. So können beispielsweise auf adversarialen Störungen in den Sensordaten/Eingangsdaten basierende Angriffe dazu führen, dass trotz eines semantisch nicht veränderten Inhalts in den erfassten Sensordaten eine Fehlklassifizierung bzw. eine falsche semantische Segmentierung erfolgt.While convolution meshes outperform classic approaches in terms of functional accuracy, they also have disadvantages. For example, attacks based on adversarial disturbances in the sensor data / input data can result in incorrect classification or incorrect semantic segmentation in the recorded sensor data despite the semantically unchanged content.
Aus Chuan Guo et al., Countering Adversarial Images Using Input Transformations, arXiv: 1711.00117v3 [cs.CV], 25. Jan. 2018, https://arxiv.org/pdf/1711.00117.pdf, ist ein Quilting-Verfahren zum Beseitigen von adversarialen Störungen in Bilddaten bekannt.From Chuan Guo et al., Countering Adversarial Images Using Input Transformations, arXiv: 1711.00117v3 [cs.CV], Jan. 25, 2018, https://arxiv.org/pdf/1711.00117.pdf, is a quilting method for Elimination of adversarial disturbances in image data is known.
Ein wesentliches Merkmal bei der Entwicklung von tiefen Neuronalen Netzen (dem Training) liegt im rein datengetriebenen Parameterfitting ohne Experteneingriff: Hierbei wird eine Abweichung einer Ausgabe (für eine gegebene Parametrierung) eines Neuronalen Netzes von einer Grundwahrheit (engl. ground truth) bestimmt (der sogenannte Loss). Die hierbei verwendete Lossfunktion wird in einer Weise gewählt, dass die Parameter des Neuronalen Netzes differenzierbar von dieser abhängen. Im Rahmen des Gradientenabstiegsverfahrens werden in jedem Trainingsschritt die Parameter des Neuronalen Netzes in Abhängigkeit der Ableitung der (auf mehreren Beispielen ermittelten) Abweichung angepasst. Diese Trainingsschritte werden sehr oft wiederholt, bis sich der Loss nicht mehr verringert.An essential feature in the development of deep neural networks (training) is the purely data-driven parameter fitting without expert intervention: Here, a deviation of an output (for a given parameterization) of a neural network from a ground truth is determined (the so-called Loess). The loss function used here is selected in such a way that the parameters of the neural network depend on it in a differentiable manner. As part of the gradient descent method, the parameters of the neural network are adapted in each training step depending on the derivation of the deviation (determined on several examples). These training steps are repeated very often until the loss no longer decreases.
Bei diesem Vorgehen werden die Parameter des Neuronalen Netzes ohne eine Experteneinschätzung oder eine semantisch motivierte Modellierung ermittelt. Die Parameter hängen jedoch maßgeblich von den zum Training verwendeten Daten ab. Maschinengelernte Modelle können zwar im Allgemeinen sehr gut generalisieren (das Gelernte auf unbekannte Daten erfolgreich anwenden), jedoch können sie dies nur innerhalb derjenigen Datendomänen, mit denen sie im Laufe des Trainingsvorgangs konfrontiert wurden. Wendet man das trainierte Modell hingegen auf Daten anderer Datendomänen an, resultiert dies meist in einer stark reduzierten Genauigkeit der Ausgabe. Dies führt dazu, dass die von dem Neuronalen Netz bereitgestellten KI-Funktionen zum Beispiel nur in Regionen verwendet werden können, aus denen die zum Trainieren verwendeten Daten stammen, oder dieser sehr ähnlich sind.In this procedure, the parameters of the neural network are determined without expert assessment or semantically motivated modeling. However, the parameters depend largely on the data used for training. Machine-learned models are generally very good at generalizing (successfully applying what they have learned to unknown data), but they can only do so within the data domains they were confronted with in the course of the training process. If, on the other hand, the trained model is applied to data from other data domains, this usually results in a greatly reduced accuracy of the output. As a result, the AI functions provided by the neural network can, for example, only be used in regions from which the data used for training originate or are very similar.
Der Erfindung liegt die Aufgabe zu Grunde, ein Verfahren und Vorrichtung zum Erkennen einer Entfremdung einer Sensordatendomäne von einer Referenzdatendomäne zu schaffen.The invention is based on the object of creating a method and device for recognizing an alienation of a sensor data domain from a reference data domain.
Die Aufgabe wird erfindungsgemäß durch ein Verfahren mit den Merkmalen des Patentanspruchs 1 und eine Vorrichtung mit den Merkmalen des Patentanspruchs 7 gelöst. Vorteilhafte Ausgestaltungen der Erfindung ergeben sich aus den Unteransprüchen.The object is achieved according to the invention by a method with the features of claim 1 and a device with the features of
Insbesondere wird ein Verfahren zum Erkennen einer Entfremdung einer Sensordatendomäne von einer Referenzdatendomäne zur Verfügung gestellt, wobei erfasste Sensordaten mindestens eines Sensors empfangen werden, wobei mittels eines Distanzmaßes jeweils Distanzen zwischen Teilausschnitten der empfangenen Sensordaten und zum stückweisen Ersetzen mittels Quilting der Sensordaten verwendeten und der Referenzdatendomäne angehörenden Sensordatenpatches bestimmt werden oder solche Distanzen erhalten werden, und wobei ein Entfremdungssignal in Abhängigkeit der bestimmten Distanzen erzeugt und bereitgestellt wird.In particular, a method is provided for recognizing the alienation of a sensor data domain from a reference data domain, with detected sensor data from at least one sensor being received, with distances between partial sections of the received sensor data and for piece-by-piece replacement by means of quilting of the sensor data used and belonging to the reference data domain Sensor data patches are determined or such distances are obtained, and an alienation signal is generated and provided as a function of the determined distances.
Ferner wird insbesondere eine Vorrichtung zum Erkennen einer Entfremdung einer Sensordatendomäne von einer Referenzdatendomäne geschaffen, umfassend eine Eingangseinrichtung zum Empfangen von erfassten Sensordaten mindestens eines Sensors, eine Recheneinrichtung, und eine Ausgabeeinrichtung, wobei die Recheneinrichtung dazu eingerichtet ist, mittels eines Distanzmaßes jeweils Distanzen zwischen Teilausschnitten der empfangenen Sensordaten und zum stückweisen Ersetzen mittels Quilting der Sensordaten verwendeten und der Referenzdatendomäne angehörenden Sensordatenpatches zu bestimmen oder solche Distanzen zu erhalten, und ein Entfremdungssignal in Abhängigkeit der bestimmten Distanzen zu erzeugen, und wobei die Ausgabeeinrichtung dazu eingerichtet ist, das erzeugte Entfremdungssignal bereitzustellen.Furthermore, in particular a device for recognizing an alienation of a Sensor data domain created from a reference data domain, comprising an input device for receiving acquired sensor data from at least one sensor, a computing device, and an output device, the computing device being set up to use a distance measure to determine distances between partial sections of the received sensor data and to replace the sensor data piece by piece by means of quilting to determine the sensor data patches used and belonging to the reference data domain or to obtain such distances, and to generate an alienation signal as a function of the determined distances, and wherein the output device is set up to provide the alienation signal generated.
Das Verfahren und die Vorrichtung ermöglichen es, eine Entfremdung einer Sensordatendomäne von einer Referenzdatendomäne festzustellen. Hierdurch kann insbesondere festgestellt werden, ob aktuell erfasste bzw. empfangene Sensordaten (noch) in der Referenzdatendomäne liegen oder nicht. Hierzu werden erfasste Sensordaten mindestens eines Sensors empfangen. Die Sensordaten sind beispielsweise mittels Umfeldsensoren eines Kraftfahrzeugs von einem Umfeld erfasste Umfelddaten. Mittels eines Distanzmaßes werden jeweils Distanzen zwischen Teilausschnitten der empfangenen Sensordaten und Sensordatenpatches bestimmt. Die Sensordatenpatches werden in einem Quilting-Verfahren zum stückweisen Ersetzen der Sensordaten verwendet und gehören der Referenzdatendomäne an bzw. definieren diese. Die jeweils betrachteten Teilausschnitte der Sensordaten und die zugehörigen Sensordatenpatches haben das gleiche Format bzw. die gleiche Größe. Das Quilting selbst kann Teil des Verfahrens sein; das Quilting kann aber auch unabhängig von dem Verfahren ausgeführt werden, wobei lediglich die jeweils zum Quilting mittels des Distanzmaßes bestimmten Distanzen zwischen den Teilausschnitten der Sensordaten und den zugehörigen Sensordatenpatches bestimmt oder erhalten werden. Zum Bestimmen der Distanzen können die Teilausschnitte der Sensordaten beispielsweise zu Vektoren linearisiert werden und mit den jeweiligen, ebenfalls zu Vektoren linearisierten, Sensordatenpatches über eine Vektornorm verglichen werden. Beispielsweise kann als Distanzmaß hierbei die L2-Norm verwendet werden. In Abhängigkeit der bestimmten Distanzen wird ein Entfremdungssignal erzeugt und bereitgestellt.The method and the device make it possible to determine an alienation of a sensor data domain from a reference data domain. This makes it possible in particular to determine whether currently recorded or received sensor data are (still) in the reference data domain or not. For this purpose, recorded sensor data from at least one sensor is received. The sensor data are, for example, environment data recorded from an environment by means of environment sensors of a motor vehicle. Distances between partial sections of the received sensor data and sensor data patches are determined by means of a distance measure. The sensor data patches are used in a quilting process to replace the sensor data piece by piece and belong to or define the reference data domain. The respective sections of the sensor data considered and the associated sensor data patches have the same format or the same size. The quilting itself can be part of the process; however, the quilting can also be carried out independently of the method, with only the distances between the partial sections of the sensor data and the associated sensor data patches determined or obtained for quilting by means of the distance measure. To determine the distances, the partial sections of the sensor data can be linearized into vectors, for example, and compared with the respective sensor data patches, likewise linearized into vectors, using a vector standard. For example, the L2 standard can be used here as a distance measure. An alienation signal is generated and provided as a function of the determined distances.
Quilting bezeichnet insbesondere das stückweise Ersetzen von Sensordaten. Das Quilting wird insbesondere dazu verwendet, Sensordaten, die einem Neuronalen Netz als Eingangsdaten zugeführt werden, gegen adversariale Störungen zu robustifizieren. Das Quilting kann auch als stückweise Rekonstruktion der Sensordaten bezeichnet werden. Im Zusammenhang mit Bilddaten wird auch der Begriff „Image-Quilting“ verwendet. Handelt es sich beispielsweise um Bilder einer Kamera, so wird das Kamerabild in mehrere Teilausschnitte unterteilt. Hierzu können kleine, rechteckige Bildausschnitte (auch als Patches bezeichnet, z.B. mit einer Größe von jeweils 8x8 Bildelementen/Pixeln) definiert werden. Die einzelnen Teil- bzw. Bildausschnitte werden mit Teilausschnitten, in dieser Offenbarung als Sensordatenpatches bezeichnet, verglichen, die insbesondere in einer Datenbank hinterlegt sind. Der Vergleich erfolgt auf Grundlage eines Distanzmaßes, welches beispielsweise über einen euklidischen Abstand auf Bildelementvektoren definiert ist. Hierzu wird ein Teil- bzw. Bildausschnitt als Vektor linearisiert. Das Bestimmen einer Distanz erfolgt dann über eine Vektornorm, beispielsweise über die L2-Norm. Die Teil- bzw. Bildausschnitte aus den erfassten Sensordaten werden jeweils durch den nächstliegenden bzw. ähnlichsten Sensordatenpatch aus der Datenbank ersetzt. Es kann hierbei vorgesehen sein, dass eine Mindestdistanz eingehalten werden muss bzw. dass zumindest keine Identität zwischen dem Teilausschnitt aus den Sensordaten und dem Sensordatenpatch vorliegen darf. Haben die Sensordaten eine andere Form (z.B. Lidardaten) bzw. ein anderes Format, so erfolgt das stückweise Ersetzen in analoger Weise. Das stückweise Ersetzen erfolgt für alle Teilausschnitte der Sensordaten, sodass anschließend ersetzte bzw. rekonstruierte Sensordaten vorliegen. Nach dem stückweise Ersetzen, das heißt nach dem Quilting, ist eine Wirkung von adversarialen Störungen in den (ersetzten bzw. rekonstruierten) Sensordaten beseitigt oder zumindest verringert. Die zum Quilting notwendigen Sensordatenpatches werden aus Sensordaten erzeugt, die vertrauenswürdig sind, das heißt in denen mit Sicherheit oder zumindest mit hoher Wahrscheinlichkeit keine adversarialen Störungen enthalten sind. Die Sensordatenpatches werden beispielsweise in Form einer durchsuchbaren Datenbank bereitgestellt.Quilting particularly refers to the piece-by-piece replacement of sensor data. Quilting is used in particular to robustize sensor data that are fed to a neural network as input data against adversarial interference. Quilting can also be referred to as a piece-wise reconstruction of the sensor data. The term “image quilting” is also used in connection with image data. If, for example, images from a camera are involved, the camera image is divided into several partial sections. For this purpose, small, rectangular image sections (also known as patches, e.g. with a size of 8x8 picture elements / pixels) can be defined. The individual partial or image sections are compared with partial sections, referred to in this disclosure as sensor data patches, which are in particular stored in a database. The comparison takes place on the basis of a distance measure which is defined, for example, via a Euclidean distance on picture element vectors. For this purpose, a partial or image section is linearized as a vector. A distance is then determined using a vector standard, for example the L2 standard. The partial or image excerpts from the recorded sensor data are each replaced by the closest or most similar sensor data patch from the database. It can be provided here that a minimum distance must be observed or that at least no identity may exist between the partial excerpt from the sensor data and the sensor data patch. If the sensor data have a different form (e.g. lidar data) or a different format, they are replaced piece by piece in an analogous manner. The piece-by-piece replacement takes place for all partial sections of the sensor data, so that replaced or reconstructed sensor data are then available. After the piece-by-piece replacement, that is to say after the quilting, an effect of adversarial disturbances in the (replaced or reconstructed) sensor data is eliminated or at least reduced. The sensor data patches necessary for quilting are generated from sensor data which are trustworthy, that is to say which with certainty or at least with a high degree of probability no adverse disturbances are contained. The sensor data patches are provided, for example, in the form of a searchable database.
Mittels des Verfahrens und mittels der Vorrichtung kann festgestellt werden, wann eine Qualität beim Quilting der erfassten Sensordaten abnimmt, weil die Sensordatendomäne und die Referenzdatendomäne, aus der beim Quilting verwendete Sensordatenpatches erzeugt wurden, sich voneinander entfremdet haben. Ferner sind das Verfahren und die Vorrichtung insbesondere bei einer Anwendung von trainierten Neuronalen Netzen von Vorteil, da mittels des Verfahrens und der Vorrichtung auch festgestellt werden kann, ob aktuell erfasste Sensordaten, die einem trainierten Neuronalen Netz zur Verarbeitung zugeführt werden sollen, noch in einer Datendomäne liegen, auf die das Neuronale Netz trainiert wurde. Da die Referenzdatendomäne verfahrensgemäß über die Sensordatenpatches definiert wird, ist es hierzu insbesondere erforderlich, dass die Trainingsdaten, mit denen das Neuronale Netz trainiert wurde, ebenfalls aus der Referenzdatendomäne stammen.By means of the method and by means of the device it can be determined when a quilting quality of the sensed sensor data decreases because the sensor data domain and the reference data domain from which the sensor data patches used during quilting were generated have become alienated from one another. Furthermore, the method and the device are particularly advantageous when using trained neural networks, since the method and the device can also be used to determine whether currently recorded sensor data that are to be fed to a trained neural network for processing are still in a data domain on which the neural network has been trained. Since the reference data domain is defined according to the method using the sensor data patches, it is particularly necessary for this purpose that the Training data with which the neural network was trained also originate from the reference data domain.
Ein typisches Anwendungsszenario des Verfahrens und der Vorrichtung sieht wie folgt aus. In einem Fahrzeug wird unabhängig von dem offenbarten Verfahren ein Neuronales Netz eingesetzt, beispielsweise zur Umfeldwahrnehmung (Objekterkennung, semantische Segmentierung etc.). Dem Neuronalen Netz werden erfasste Sensordaten, insbesondere Umfelddaten eines Umfelds des Fahrzeugs, mindestens eines Sensors (z.B. einer Kamera, eines Lidarsensors etc.) zugeführt. Vorher werden die erfassten Sensordaten mittels Quilting stückweise ersetzt, um die erfassten Sensordaten gegen adversariale Störungen zu robustifizieren. Das Quilting erfolgt, indem Distanzen von Teilausschnitten der erfassten Sensordaten zu Sensordatenpatches, die beispielsweise in einer Datenbank hinterlegt sind, bestimmt werden und die einzelnen Teilausschnitte jeweils durch das in Bezug auf die jeweilige Distanz ähnlichste bzw. nächstliegende Sensordatenpatch ersetzt werden. Dies erfolgt für alle Teilausschnitte der erfassten Sensordaten, sodass die Sensordaten anschließend vollständig stückweise ersetzt bzw. rekonstruiert sind. Das in dieser Offenbarung beschriebene Verfahren benutzt die beim Quilting bestimmten Distanzen, um eine Entfremdung der Sensordatendomäne gegenüber der über die Sensordatenpatches definierten Referenzdatendomäne zu erkennen und festzustellen.A typical application scenario for the method and the device is as follows. Independent of the disclosed method, a neural network is used in a vehicle, for example for perception of the surroundings (object recognition, semantic segmentation, etc.). Recorded sensor data, in particular data on the surroundings of the surroundings of the vehicle, at least one sensor (e.g. a camera, a lidar sensor, etc.) are fed to the neural network. Before this, the recorded sensor data are replaced piece by piece by means of quilting in order to robustize the recorded sensor data against adversarial disturbances. Quilting takes place by determining distances from partial sections of the recorded sensor data to sensor data patches that are stored in a database, for example, and replacing the individual partial sections with the closest or most similar sensor data patch in relation to the respective distance. This takes place for all partial sections of the recorded sensor data, so that the sensor data are then completely replaced or reconstructed piece by piece. The method described in this disclosure uses the distances determined during quilting in order to identify and determine an alienation of the sensor data domain from the reference data domain defined via the sensor data patches.
Die Sensordaten können prinzipiell eindimensional oder mehrdimensional, insbesondere zweidimensional, sein. Beispielsweise können die Sensordaten zweidimensionale Kamerabilder einer Kamera und zweidimensionale Lidardaten eines Lidarsensors sein. Es können jedoch auch Sensordaten anderer Sensoren sein, wie beispielsweise Radarsensoren und/oder Ultraschallsensoren. Die Sensordaten werden oder wurden insbesondere mittels mindestens eines Sensors eines Fahrzeugs erfasst. Die Sensordaten umfassen insbesondere Umfelddaten eines Umfelds des Fahrzeugs.The sensor data can in principle be one-dimensional or multidimensional, in particular two-dimensional. For example, the sensor data can be two-dimensional camera images from a camera and two-dimensional lidar data from a lidar sensor. However, it can also be sensor data from other sensors, such as, for example, radar sensors and / or ultrasonic sensors. The sensor data are or have been recorded in particular by means of at least one sensor of a vehicle. The sensor data include, in particular, data about the surroundings of the vehicle.
Eine Datendomäne soll insbesondere eine Gesamtheit von Daten, insbesondere Sensordaten, bezeichnen, die mit einem bestimmten Kontext korrespondieren bzw. deren Daten sich hinsichtlich ihres Ursprungs in mindestens einer Eigenschaft ähnlich sind. Ein solcher Kontext kann beispielsweise ein geographischer Kontext sein, z.B. kann eine Datendomäne Sensordaten einer Stadt umfassen, eine hiervon verschiedene Datendomäne umfasst hingegen Sensordaten einer anderen Stadt etc.A data domain should in particular denote a set of data, in particular sensor data, which correspond to a specific context or whose data are similar in terms of their origin in at least one property. Such a context can be, for example, a geographical context, e.g. a data domain can include sensor data from one city, whereas a different data domain comprises sensor data from another city, etc.
Eine Sensordatendomäne bezeichnet insbesondere eine Datendomäne, in der aktuelle, mittels des mindestens einen Sensors erfasste, Sensordaten liegen. Eine Referenzdatendomäne bezeichnet insbesondere eine Datendomäne, in der die Sensordaten liegen, aus denen die beim Quilting verwendeten Sensordatenpatches erzeugt wurden.A sensor data domain in particular denotes a data domain in which current sensor data, recorded by means of the at least one sensor, are located. A reference data domain in particular denotes a data domain in which the sensor data are located, from which the sensor data patches used in quilting were generated.
Insbesondere ist vorgesehen, dass die erfassten bzw. in den Datendomänen abgebildeten Sensordaten solche Sensordaten sind, die für eine Funktion für das automatisierte Fahren eines Fahrzeugs und/oder für eine Fahrerassistenz des Fahrzeugs und/oder für eine Umfelderfassung bzw. für eine Wahrnehmungsfunktion benötigt werden.In particular, it is provided that the sensor data recorded or mapped in the data domains are sensor data that are required for a function for automated driving of a vehicle and / or for driver assistance of the vehicle and / or for environment detection or for a perception function.
Das Verfahren und die Vorrichtung werden insbesondere in mindestens einem Fahrzeug verwendet. Ein Fahrzeug ist insbesondere ein Kraftfahrzeug. Prinzipiell kann das Fahrzeug jedoch auch ein anderes Land-, Luft-, Wasser-, Schienen- oder Raumfahrzeug sein. Prinzipiell kann das Verfahren auch für andere Arten von Sensordaten verwendet werden, beispielsweise im Zusammenhang mit Robotern, z.B. Industrierobotern oder medizinischen Robotern.The method and the device are used in particular in at least one vehicle. A vehicle is in particular a motor vehicle. In principle, however, the vehicle can also be another land, air, water, rail or space vehicle. In principle, the method can also be used for other types of sensor data, for example in connection with robots, e.g. industrial robots or medical robots.
Eine adversariale Störung (engl. adversarial perturbation) ist insbesondere eine gezielt vorgenommene Störung der, beispielsweise in Form von Sensordaten bereitgestellten, Eingangsdaten eines Neuronalen Netzes, bei der ein semantischer Inhalt in den Eingangsdaten zwar nicht verändert wird, die Störung jedoch dazu führt, dass das Neuronale Netz ein falsches Ergebnis inferiert, das heißt beispielsweise eine Fehlklassifikation oder eine falsche semantische Segmentierung der Eingangsdaten vornimmt.An adversarial perturbation is in particular a deliberately made disruption of the input data of a neural network, for example provided in the form of sensor data, in which semantic content in the input data is not changed, but the disruption leads to the Neural network inferred an incorrect result, that is, for example, incorrectly classifies or incorrectly semantic segmentation of the input data.
Ein Neuronales Netz ist insbesondere ein tiefes Neuronales Netz, insbesondere ein Faltungsnetz (engl. Convolutional Neural Network, CNN). Das Neuronale Netz wird oder ist beispielsweise auf eine bestimmte Wahrnehmungsfunktion trainiert, beispielsweise auf eine Wahrnehmung von Fußgängern oder anderen Objekten in erfassten Kamerabildern.A neural network is in particular a deep neural network, in particular a convolutional neural network (CNN). The neural network is or is, for example, trained for a specific perception function, for example for the perception of pedestrians or other objects in captured camera images.
Das Verfahren kann als computerimplementiertes Verfahren ausgeführt werden. Insbesondere kann das Verfahren mittels einer Datenverarbeitungseinrichtung ausgeführt werden. Die Datenverarbeitungseinrichtung umfasst insbesondere mindestens eine Recheneinrichtung und mindestens eine Speichereinrichtung.The method can be carried out as a computer-implemented method. In particular, the method can be carried out by means of a data processing device. The data processing device comprises in particular at least one computing device and at least one storage device.
Es wird insbesondere auch ein Computerprogramm geschaffen, umfassend Befehle, die bei der Ausführung des Computerprogramms durch einen Computer diesen veranlassen, die Verfahrensschritte des offenbarten Verfahrens gemäß einer beliebigen der beschriebenen Ausführungsformen auszuführen.In particular, a computer program is also created, comprising instructions which, when the computer program is executed by a computer, cause the computer to carry out the method steps of the disclosed method in accordance with any of the described embodiments.
Darüber hinaus wird insbesondere auch ein Datenträgersignal geschaffen, das das vorgenannte Computerprogramm überträgt.In addition, a data carrier signal is also created that transmits the aforementioned computer program.
Es kann vorgesehen sein, dass das Verfahren ein Erfassen der Sensordaten des mindestens einen Sensors umfasst.It can be provided that the method includes acquiring the sensor data of the at least one sensor.
Teile der Vorrichtung, insbesondere die Recheneinrichtung, können einzeln oder zusammengefasst als eine Kombination von Hardware und Software ausgebildet sein, beispielsweise als Programmcode, der auf einem Mikrocontroller oder Mikroprozessor ausgeführt wird.Parts of the device, in particular the computing device, can be designed individually or collectively as a combination of hardware and software, for example as program code that is executed on a microcontroller or microprocessor.
In einer Ausführungsform ist vorgesehen, dass das Entfremdungssignal erzeugt wird, wenn die bestimmten Distanzen mindestens einen vorgegebenen Schwellenwert überschreiten. Mittels des mindestens einen vorgegebenen Schwellenwertes kann eingestellt werden, wie empfindlich das Verfahren auf eine Entfremdung bzw. Veränderung der Sensordatendomäne von bzw. gegenüber der Referenzdatendomäne reagiert. Es kann hierbei vorgesehen sein, dass das Entfremdungssignal erzeugt wird, wenn eine einzige bestimmte Distanz den mindestens einen vorgegebenen Schwellenwert überschreitet. Es reicht in diesem Fall aus, wenn eine Distanz zwischen einem Teilausschnitt der empfangenen Sensordaten und einem zugehörigen Sensordatenpatch den mindestens einen vorgegebenen Schwellenwert überschreitet. Es kann jedoch auch vorgesehen sein, dass eine Mindestanzahl von bestimmten Distanzen den mindestens einen vorgegebenen Schwellenwert überschreiten muss. Ferner kann vorgesehen sein, dass ein aus allen bestimmten Distanzen zumindest für einen vorgegebenen Zeitraum bzw. eine vorgegebene Anzahl an bestimmten Distanzen gebildeter Mittelwert den mindestens einen vorgegebenen Schwellenwert überschreiten muss, damit das Entfremdungssignal erzeugt wird.In one embodiment it is provided that the alienation signal is generated when the determined distances exceed at least one predetermined threshold value. The at least one predetermined threshold value can be used to set how sensitively the method reacts to an alienation or change in the sensor data domain from or with respect to the reference data domain. It can be provided here that the alienation signal is generated when a single specific distance exceeds the at least one predetermined threshold value. In this case, it is sufficient if a distance between a partial section of the received sensor data and an associated sensor data patch exceeds the at least one predetermined threshold value. However, it can also be provided that a minimum number of specific distances must exceed the at least one predetermined threshold value. Furthermore, it can be provided that an average value formed from all certain distances at least for a predetermined period of time or a predetermined number of certain distances must exceed the at least one predetermined threshold value so that the alienation signal is generated.
In einer weiterbildenden Ausführungsform ist vorgesehen, dass der mindestens eine vorgegebene Schwellenwert positionsabhängig und/oder kontextabhängig und/oder sensorabhängig vorgegeben ist oder vorgegeben wird. Hierdurch können unterschiedliche Schwellenwerte situationsabhängig vorgegeben werden. Bei einer Positionsabhängigkeit kann der Schwellenwert insbesondere in Abhängigkeit einer geographischen Position oder Region vorgegeben werden. Beispielsweise kann der Schwellenwert im Bereich einer Spielstraße anders gewählt sein, als im Bereich einer Autobahn. Hierdurch kann eine Empfindlichkeit beim Erkennen der Entfremdung positionsabhängig festgelegt werden. Bei einer Kontextabhängigkeit kann insbesondere ein situativer Kontext betrachtet werden. Der Schwellenwert kann dann beispielsweise unterschiedlich gewählt werden, je nachdem, ob ein Fahrzeug sich auf einer Autobahn, einer Landstraße, einer Hauptstraße oder einer Nebenstraße befindet. Ferner kann beispielsweise auch eine Witterung berücksichtigt werden. So kann der mindestens eine Schwellenwert in Abhängigkeit davon gewählt werden, ob eine der folgenden Witterungsbedingungen vorliegt: Regen, Schnee, Nebel, Sonnenschein etc. Mittels der Sensorabhängigkeit können Eigenschaften von Sensoren berücksichtigt werden. Beispielsweise kann sowohl eine Art der Sensoren bzw. des diesen jeweils zugrundeliegenden physikalischen Messprinzips als auch eine Anordnung und/oder Ausrichtung und/oder Witterungsabhängigkeit der Sensoren berücksichtigt werden.In a further developing embodiment, it is provided that the at least one predefined threshold value is predefined or is predefined as a function of position and / or context-dependent and / or sensor-dependent. This allows different threshold values to be specified depending on the situation. In the case of a position dependency, the threshold value can be specified in particular as a function of a geographic position or region. For example, the threshold value in the area of a play street can be selected differently than in the area of a motorway. In this way, a sensitivity when recognizing the alienation can be determined as a function of the position. In the case of context dependency, a situational context in particular can be considered. The threshold value can then be selected differently, for example, depending on whether a vehicle is on a motorway, a country road, a main road or a secondary road. Furthermore, weather conditions can also be taken into account, for example. The at least one threshold value can thus be selected as a function of whether one of the following weather conditions is present: rain, snow, fog, sunshine, etc. Properties of sensors can be taken into account by means of the sensor dependency. For example, both a type of sensors or the physical measurement principle on which they are based as well as an arrangement and / or alignment and / or weather-dependency of the sensors can be taken into account.
In einer Ausführungsform ist vorgesehen, dass mittels des erzeugten Entfremdungssignals ein Erfassen und/oder Sammeln von Sensordaten des mindestens einen Sensors veranlasst wird. Hierdurch können für die entfremdete Sensordatendomäne aktualisierte Sensordaten erfasst und gesammelt werden, welche anschließend zum (Nach-)Trainieren eines Neuronalen Netzes verwendet werden können. Das Neuronale Netz kann hierdurch auf einen aktuellen, der geänderten Sensordatendomäne entsprechenden, Stand gebracht werden. Insbesondere kann das erzeugte Entfremdungssignal beispielsweise einer Steuereinrichtung eines Kraftfahrzeugs zugeführt werden, das nach Empfangen des Entfremdungssignals das Erfassen und/oder Sammeln der Sensordaten des mindestens einen Sensors startet. Das Sammeln erfolgt beispielsweise mittels einer hierfür eingerichteten Speichereinrichtung.In one embodiment it is provided that the generated alienation signal is used to initiate detection and / or collection of sensor data from the at least one sensor. As a result, updated sensor data can be recorded and collected for the alienated sensor data domain, which can then be used to (re) train a neural network. The neural network can thereby be brought up to date, corresponding to the changed sensor data domain. In particular, the generated alienation signal can be fed, for example, to a control device of a motor vehicle which, after receiving the alienation signal, starts detecting and / or collecting the sensor data of the at least one sensor. The collection takes place, for example, by means of a storage device set up for this purpose.
Es kann insbesondere vorgesehen sein, dass mittels des erzeugten Entfremdungssignals ein Erfassen und/oder Sammeln von Sensordaten des mindestens einen Sensors durch eine Fahrzeugflotte veranlasst wird. Dies ermöglicht ein umfangreicheres Erfassen und/oder Sammeln von Sensordaten für die geänderte Sensordatendomäne. Das Veranlassen erfolgt beispielsweise über eine hierfür eingerichtete Kommunikationsschnittstelle. Das Veranlassen kann hierbei über einen zentralen Backendserver vermittelt bzw. koordiniert werden, beispielsweise indem der Backendserver nach Erhalten des von einem der Fahrzeuge der Fahrzeugflotte erzeugten Entfremdungssignals andere Fahrzeuge der Fahrzeugflotte zum Erfassen und/oder Sammeln von Sensordaten des mindestens einen Sensors veranlasst. Die erfassten und/oder gesammelten Sensordaten sämtlicher Fahrzeuge der Fahrzeugflotte werden an den Backendserver übermittelt, der diese sammelt und anschließend zum (Nach-)Trainieren eines Neuronalen Netzes bereitgestellt.In particular, it can be provided that the generated alienation signal is used to initiate a detection and / or collection of sensor data from the at least one sensor by a vehicle fleet. This enables more extensive acquisition and / or collection of sensor data for the changed sensor data domain. The initiation takes place, for example, via a communication interface set up for this purpose. The initiation can be mediated or coordinated via a central backend server, for example by the backend server causing other vehicles in the vehicle fleet to detect and / or collect sensor data from the at least one sensor after receiving the alienation signal generated by one of the vehicles in the vehicle fleet. The recorded and / or collected sensor data from all vehicles in the vehicle fleet are transmitted to the backend server, which collects them and then makes them available for (re) training a neural network.
In einer weiterbildenden Ausführungsform ist vorgesehen, dass das Erfassen und/oder Sammeln der Sensordaten positionsabhängig und/oder kontextabhängig und/oder sensorabhängig erfolgt. Hierdurch können Sensordaten der entfremdeten bzw. veränderten Sensordatendomäne gezielt für bestimmte Positionen, insbesondere geographische Positionen, oder Regionen bzw. für bestimmte Kontexte (Stadt, Land, Autobahn, Spielstraße, Regen, Nebel, etc.) erfasst und gesammelt werden. Insbesondere im Zusammenwirken mit positionsabhängigen und/oder kontextabhängigen und/oder sensorabhängigen Schwellenwerten kann eine Sensordatendomäne gezielt und detailliert überwacht werden.In a further-developing embodiment, it is provided that the detection and / or collection of the sensor data takes place as a function of position and / or context-dependent and / or sensor-dependent. This allows sensor data from the alienated or changed sensor data domain to be recorded and collected in a targeted manner for certain positions, in particular geographical positions, or regions or for certain contexts (city, country, motorway, play street, rain, fog, etc.). In particular in interaction with position-dependent and / or context-dependent and / or sensor-dependent threshold values, a sensor data domain can be monitored in a targeted and detailed manner.
In einer Ausführungsform ist vorgesehen, dass mittels des erzeugten Entfremdungssignals ein Erstellen und/oder Aktualisieren von Sensordatenpatches veranlasst wird, die beim Quilting der Sensordaten verwendet werden. Hierdurch können die beim Quilting verwendeten Sensordatenpatches auf die veränderte bzw. entfremdete Sensordatendomäne aktualisiert werden. Derart aktualisierte Sensordatenpatches bilden bzw. definieren anschließend eine neue Referenzdatendomäne. Insbesondere erfolgt das Erstellen und/oder Aktualisieren der Sensordatenpatches auf Grundlage von für die entfremdete bzw. veränderte Sensordatendomäne erfassten und/oder gesammelten Sensordaten des mindestens einen Sensors. Die gesammelten Sensordaten werden in Teilausschnitte unterteilt, die die neuen Sensordatenpatches bilden. Die derart gebildeten Sensordatenpatches werden insbesondere in einer Datenbank hinterlegt, welche die Grundlage für eine nachfolgende Anwendung des Quilting-Verfahrens bildet. Das Erstellen und/oder Aktualisieren der Sensordatenpatches kann ebenfalls mittels eines Backendservers, insbesondere koordiniert für die gesamte Fahrzeugflotte, durchgeführt werden.In one embodiment it is provided that the generated alienation signal is used to initiate the creation and / or updating of sensor data patches which are used in the quilting of the sensor data. As a result, the sensor data patches used during quilting can be updated to the changed or alienated sensor data domain. Sensor data patches updated in this way then form or define a new reference data domain. In particular, the creation and / or updating of the sensor data patches takes place on the basis of sensor data of the at least one sensor that are recorded and / or collected for the alienated or changed sensor data domain. The collected sensor data is divided into sections that form the new sensor data patches. The sensor data patches formed in this way are in particular stored in a database which forms the basis for a subsequent application of the quilting method. The creation and / or updating of the sensor data patches can also be carried out by means of a backend server, in particular in a coordinated manner for the entire vehicle fleet.
Weitere Merkmale zur Ausgestaltung der Vorrichtung ergeben sich aus der Beschreibung von Ausgestaltungen des Verfahrens. Die Vorteile der Vorrichtung sind hierbei jeweils die gleichen wie bei den Ausgestaltungen des Verfahrens.Further features for the configuration of the device emerge from the description of configurations of the method. The advantages of the device are in each case the same as in the embodiments of the method.
Ferner wird insbesondere auch ein Kraftfahrzeug geschaffen, umfassend mindestens eine Vorrichtung nach einer beliebigen der beschriebenen Ausführungsformen.Furthermore, in particular, a motor vehicle is also created, comprising at least one device according to any of the described embodiments.
Nachfolgend wird die Erfindung anhand bevorzugter Ausführungsbeispiele unter Bezugnahme auf die Figuren näher erläutert. Hierbei zeigen:
-
1 eine schematische Darstellung einer Ausführungsform der Vorrichtung zum Erkennen einer Entfremdung einer Sensordatendomäne von einer Referenzdatendomäne; -
2 eine schematische Darstellung zur Verdeutlichung des Quilting-Verfahrens (Stand der Technik); -
3 ein schematisches Ablaufdiagramm einer Ausführungsform des Verfahrens zum Erkennen einer Entfremdung einer Sensordatendomäne von einer Referenzdatendomäne.
-
1 a schematic representation of an embodiment of the device for detecting an alienation of a sensor data domain from a reference data domain; -
2 a schematic representation to illustrate the quilting process (prior art); -
3 a schematic flow diagram of an embodiment of the method for detecting an alienation of a sensor data domain from a reference data domain.
In
Die Vorrichtung
Teile der Vorrichtung
In dem gezeigten Beispiel führt die Vorrichtung
Zum stückweise Ersetzen mittels Quilting bestimmt das Quilting-Modul
Es kann hierbei vorgesehen sein, dass das Entfremdungssignal
Die Ausgabeeinrichtung
Alternativ zum Erhalten der bestimmten Distanzen
Es kann vorgesehen sein, dass der mindestens eine vorgegebene Schwellenwert
Es kann vorgesehen sein, dass mittels des erzeugten Entfremdungssignals ein Erfassen und/oder Sammeln von Sensordaten
Das Kraftfahrzeug
Ferner kann der Backendserver
Weiterbildend kann vorgesehen sein, dass das Erfassen und/oder Sammeln der Sensordaten
Hierdurch können Ressourcen eingespart werden, beispielsweise wenn eine Entfremdung lediglich in bestimmten Regionen und/oder Kontexten und/oder nur für bestimmte Sensoren etc. aufgetreten ist. In diesen Fällen kann ein gezieltes und dem Umfang nach beschränktes Erfassen und/oder Sammeln von Sensordaten veranlasst werden, sodass vorhandene Ressourcen gezielt eingesetzt werden können.In this way, resources can be saved, for example if alienation has only occurred in certain regions and / or contexts and / or only for certain sensors, etc. In these cases, a targeted and limited recording and / or collection of sensor data can be initiated so that existing resources can be used in a targeted manner.
In
Die beim Quiltingschritt
In
In einem Verfahrensschritt
In einem Verfahrensschritt
In einem Verfahrensschritt
Wird im Verfahrensschritt
Anschließend kann in einem Verfahrensschritt
BezugszeichenlisteList of reference symbols
- 11
- Vorrichtungcontraption
- 22
- EingangseinrichtungEntrance facility
- 33
- RecheneinrichtungComputing device
- 44th
- SpeichereinrichtungStorage facility
- 55
- AusgabeeinrichtungOutput device
- 66th
- Quilting-ModulQuilting module
- 77th
- ErkennungsmodulDetection module
- 1010
- SensordatenSensor data
- 1111
- Distanzdistance
- 1212th
- SchwellenwertThreshold
- 1313th
- KamerabildCamera image
- 2020th
- ersetzte Sensordatenreplaced sensor data
- 2121
- EntfremdungssignalAlienation signal
- 2323
- Teilausschnitt (Bildausschnitt)Partial section (image section)
- 2424
- ersetzter Teilausschnittreplaced partial section
- 2525th
- ersetztes Kamerabildreplaced camera image
- 4040
- DatenbankDatabase
- 5050
- KraftfahrzeugMotor vehicle
- 5151
- Sensorsensor
- 5252
- Neuronales NetzNeural network
- 5353
- (nach-)trainiertes Neuronales Netz(re) trained neural network
- 5555
- BackendserverBackend server
- 6060
- SensordatenpatchesSensor data patches
- 6161
- aktualisierte Sensordatenpatchesupdated sensor data patches
- 100100
- Quilting-SchrittQuilting step
- 200-204200-204
- VerfahrensschritteProcedural steps
Claims (10)
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019219927.5A DE102019219927A1 (en) | 2019-12-17 | 2019-12-17 | Method and device for recognizing an alienation of a sensor data domain from a reference data domain |
PCT/EP2020/085649 WO2021122337A1 (en) | 2019-12-17 | 2020-12-10 | Method and apparatus for recognising removal of a sensor data domain from a reference data domain |
EP20829546.9A EP4078237A1 (en) | 2019-12-17 | 2020-12-10 | Method and apparatus for recognising removal of a sensor data domain from a reference data domain |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019219927.5A DE102019219927A1 (en) | 2019-12-17 | 2019-12-17 | Method and device for recognizing an alienation of a sensor data domain from a reference data domain |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102019219927A1 true DE102019219927A1 (en) | 2021-06-17 |
Family
ID=74068253
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102019219927.5A Pending DE102019219927A1 (en) | 2019-12-17 | 2019-12-17 | Method and device for recognizing an alienation of a sensor data domain from a reference data domain |
Country Status (3)
Country | Link |
---|---|
EP (1) | EP4078237A1 (en) |
DE (1) | DE102019219927A1 (en) |
WO (1) | WO2021122337A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102022112655A1 (en) | 2022-05-19 | 2023-11-23 | Bayerische Motoren Werke Aktiengesellschaft | Driving assistance system and driving assistance method for a vehicle |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102017206123A1 (en) * | 2017-04-10 | 2018-10-11 | Robert Bosch Gmbh | Method and device for merging data from various sensors of a vehicle as part of an object recognition |
-
2019
- 2019-12-17 DE DE102019219927.5A patent/DE102019219927A1/en active Pending
-
2020
- 2020-12-10 EP EP20829546.9A patent/EP4078237A1/en active Pending
- 2020-12-10 WO PCT/EP2020/085649 patent/WO2021122337A1/en unknown
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102022112655A1 (en) | 2022-05-19 | 2023-11-23 | Bayerische Motoren Werke Aktiengesellschaft | Driving assistance system and driving assistance method for a vehicle |
Also Published As
Publication number | Publication date |
---|---|
EP4078237A1 (en) | 2022-10-26 |
WO2021122337A1 (en) | 2021-06-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
AT521607B1 (en) | Method and device for testing a driver assistance system | |
DE102017107264A1 (en) | VISIBLE RAIN RECOGNITION USING DEEP LEARNING | |
EP3789926A1 (en) | Method for detecting an adversarial fault in the input data of a neural network | |
DE102019106122A1 (en) | Automated driving system | |
EP4078238A1 (en) | Method and device for making sensor data more robust against adverse disruptions | |
EP4078237A1 (en) | Method and apparatus for recognising removal of a sensor data domain from a reference data domain | |
DE102021200643B3 (en) | Method for environment recognition for semi-autonomous or autonomous driving functions of a motor vehicle using a neural network | |
DE102021210417A1 (en) | Systems and methods with robust classifiers to defend against patch attacks | |
WO2020233991A1 (en) | Method for operating a deep neural network | |
EP4049186A1 (en) | Method for making a neural network more robust against adversarial disruptions | |
EP3973466A1 (en) | Method for making a neural network more robust in a function-specific manner | |
DE102019219925A1 (en) | Method and device for robustizing a neural network against adversarial disturbances | |
WO2020233961A1 (en) | Method for assessing a function-specific robustness of a neural network | |
DE102019217951A1 (en) | Method and apparatus for determining a domain distance between at least two data domains | |
DE102019219924B4 (en) | Method and device for creating and providing a database with sensor data patches stored therein for use in quilting | |
DE102020203819A1 (en) | Method for operating an at least partially automated vehicle and vehicle | |
DE102019219926A1 (en) | Method and device for training a neural network | |
DE102018008325A1 (en) | A method of operating a smart sensor fusion system having a centralized fusion device and having a decentralized fusion device and intelligent sensor fusion system | |
WO2022013121A1 (en) | Method and device for evaluating and certifying the robustness of an ai-based information processing system | |
EP3985565A1 (en) | Method and device for checking an ai-based information processing system used in partially automated or fully automated control of a vehicle | |
DE102020120934A1 (en) | Method for providing a compressed neural network for multi-label, multi-class categorization, vehicle assistance device for environment categorization and motor vehicle | |
DE102020213058A1 (en) | Method and device for partially automated or fully automated control of a vehicle | |
DE102021121149A1 (en) | Method for the automated determination of a user's head pose in a motor vehicle | |
DE102022212374A1 (en) | Computer-implemented method for detecting objects | |
DE102019213458A1 (en) | Method for compressing a neural network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication |