DE102017220243B3 - METHOD AND DEVICE FOR DETECTING A BLOCKING OF A RADAR DEVICE, DRIVER ASSISTANCE SYSTEM AND VEHICLE - Google Patents

METHOD AND DEVICE FOR DETECTING A BLOCKING OF A RADAR DEVICE, DRIVER ASSISTANCE SYSTEM AND VEHICLE Download PDF

Info

Publication number
DE102017220243B3
DE102017220243B3 DE102017220243.2A DE102017220243A DE102017220243B3 DE 102017220243 B3 DE102017220243 B3 DE 102017220243B3 DE 102017220243 A DE102017220243 A DE 102017220243A DE 102017220243 B3 DE102017220243 B3 DE 102017220243B3
Authority
DE
Germany
Prior art keywords
radar
radar image
image
prediction
updated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102017220243.2A
Other languages
German (de)
Inventor
Robert Sasu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Continental Autonomous Mobility Germany GmbH
Original Assignee
Continental Automotive GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Continental Automotive GmbH filed Critical Continental Automotive GmbH
Priority to DE102017220243.2A priority Critical patent/DE102017220243B3/en
Application granted granted Critical
Publication of DE102017220243B3 publication Critical patent/DE102017220243B3/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • G01S7/4039Means for monitoring or calibrating of parts of a radar system of sensor or antenna obstruction, e.g. dirt- or ice-coating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/52Discriminating between fixed and moving objects or between objects moving at different speeds
    • G01S13/56Discriminating between fixed and moving objects or between objects moving at different speeds for presence detection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/411Identification of targets based on measurements of radar reflectivity
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/415Identification of targets based on measurements of movement associated with the target

Abstract

Die Erfindung betrifft ein Verfahren zum Erkennen einer Blockierung einer Radarvorrichtung (5) basierend auf einem Radarbild (10a), das basierend auf durch die Radarvorrichtung (5) erfassten Radardaten erhalten wird, wobei das Radarbild (10a) eine Mehrzahl von Pixeln aufweist, wobei den Pixeln wenigstens ein Attribut zugeordnet ist und wobei bei jedem Zyklus folgende Schritt ausgeführt werden: Vorhersagen (S1) eines Vorhersage-Radarbildes (10b) unter Verwendung des Radarbildes (10a) des vorherigen Zyklus; Erfassen (S2) neuer Radardaten durch die Radarvorrichtung (5); Zuordnen (S3) von Messdatenclustern zu den entsprechenden Pixeln des Radarbildes (10a) basierend auf den erfassten neuen Radardaten; Erzeugen (S4) eines aktualisierten Radarbildes (10b) durch Aktualisieren der Attribute der Pixel des Radarbildes (10a) basierend auf dem Messdatencluster, der dem jeweiligen Pixel zugeordnet ist; Vergleichen (S5) des Vorhersage-Radarbildes mit dem aktualisierten Radarbild (10b); und Erkennen (S6), ob eine Blockierung der Radarvorrichtung (5) aufgetreten ist, basierend auf dem Vergleich des Vorhersage-Radarbildes und des aktualisierten Radarbildes (10b).

Figure DE102017220243B3_0000
The invention relates to a method for detecting a blockage of a radar device (5) based on a radar image (10a), which is obtained based on radar data acquired by the radar device (5), wherein the radar image (10a) has a plurality of pixels, wherein the Pixels are assigned at least one attribute and wherein at each cycle the following steps are performed: predicting (S1) a prediction radar image (10b) using the radar image (10a) of the previous cycle; Detecting (S2) new radar data by the radar device (5); Assigning (S3) measurement data clusters to the corresponding pixels of the radar image (10a) based on the acquired new radar data; Generating (S4) an updated radar image (10b) by updating the attributes of the pixels of the radar image (10a) based on the measurement data cluster associated with the respective pixel; Comparing (S5) the prediction radar image with the updated radar image (10b); and detecting (S6) whether a blockage of the radar device (5) has occurred based on the comparison of the prediction radar image and the updated radar image (10b).
Figure DE102017220243B3_0000

Description

Die Erfindung betrifft ein Verfahren und eine Vorrichtung zum Erkennen einer Blockierung einer Radarvorrichtung, ein Fahrerassistenzsystem für ein Fahrzeug und ein Fahrzeug.The invention relates to a method and a device for detecting a blockage of a radar device, a driver assistance system for a vehicle and a vehicle.

Moderne Fahrzeuge umfassen typischerweise mehrere Radarvorrichtungen zum Gewinnen von Informationen über das Umfeld des Fahrzeugs. Die Radarvorrichtungen sind um das Fahrzeug herum bodennah angeordnet und sind aufgewirbeltem Staub, Matsch, Nebel, Eis und Schnee ausgesetzt. Dementsprechend stellt eine Blockierung der Radarvorrichtung ein ernstes Problem dar, da sie zu einer verminderten Qualität der durch die Radarvorrichtung erfassten Radardaten führt. Die Blockierung kann rasch erfolgen, beispielsweise bedingt durch Matsch. Es sind jedoch auch langsame Veränderungen möglich, beispielsweise aufgrund eines langsam gefrierenden Wasserfilms auf der Radarvorrichtüng.Modern vehicles typically include multiple radar devices for obtaining information about the environment of the vehicle. The radar devices are located close to the ground around the vehicle and are exposed to whirled up dust, mud, fog, ice and snow. Accordingly, a blockage of the radar device poses a serious problem because it results in a reduced quality of the radar data acquired by the radar device. The blocking can be done quickly, for example due to slush. However, slow changes are possible as well, for example due to a slowly freezing water film on the radar device.

Dementsprechend ist es von großer Wichtigkeit, Änderungen und Anomalien so früh wie möglich zu erkennen, um auf fehlerhaften Radardaten basierende falsche Vorhersagen zu vermeiden.Accordingly, it is very important to detect changes and anomalies as early as possible in order to avoid false predictions based on erroneous radar data.

Typischerweise werden Anomalien unter Verwendung von drei Kriterien erkannt: Reichweite, Zeitüberschreitung und Objektverlust.Typically, anomalies are detected using three criteria: range, timeout, and object loss.

Ein Verfahren zum Erkennen einer Blockierung ist aus dem Dokument US 20090243912 A1 bekannt. Innerhalb einer virtuellen Erkennungszone wird ein Zielobjekt erkannt, es werden zielobjektbezogene Informationen gesammelt, und basierend auf den gesammelten Informationen wird bestimmt, ob ein „Verfehlt“-Warnsignal erzeugt werden sollte.One method of detecting a blockage is from the document US 20090243912 A1 known. Within a virtual detection zone, a target object is detected, target-related information is collected, and based on the collected information, it is determined whether a "missed" alert signal should be generated.

Das Dokument WO 2004006119 A2 betrifft ein Anomalieerkennungssystem zur Erkennung von Anomalien in einem Medium, das bekannte oder vorhersagbare statistische Eigenschaften aufweist.The document WO 2004006119 A2 relates to an anomaly detection system for detecting anomalies in a medium having known or predictable statistical characteristics.

Die statistikbasierte Erkennung von Anomalien ist allgemein schwierig. Beispielsweise wird das Radarbild möglicherweise nicht immer in einer Gaußschen Verteilung dargestellt Dementsprechend funktioniert eine auf Mittelwerten oder Varianzen basierende Anomalieerkennung allgemein nur für niedrigdimensionale Datenströme. Möglicherweise mangelt es an einer klaren Grenze zwischen anormalen Daten und Radardaten mit ausreichender Qualität, die außergewöhnliche Umgebungen betreffen. Eine Anomalieerkennung basierend auf einer Zeitüberschreitung ist beispielsweise schwierig, wenn das Fahrzeug auf einer Straße ohne Verkehr und ohne Randstreifen fährt. Wenn sich eine Wasser- oder Schneeschicht auf der Straße befindet, gibt es fast keine Reflexionen und das System kann irrtümlich eine Blockierung melden.Statistics-based detection of anomalies is generally difficult. For example, the radar image may not always be displayed in a Gaussian distribution. Accordingly, anomaly detection based on means or variances generally only works for low-dimensional data streams. There may be a lack of clear boundaries between abnormal data and radar data of sufficient quality that affect exceptional environments. For example, an abnormality detection based on a time-out is difficult when the vehicle is running on a road with no traffic and no edge trim. If there is a layer of water or snow on the road, there are almost no reflections and the system may erroneously report a stall.

Darüber hinaus können unterschiedliche Attribute eines Radarbildes allgemein miteinander korrelieren, was durch Berechnen von Mittelwerten für jedes Attribut separat verloren geht.In addition, different attributes of a radar image may generally correlate with each other, which is separately lost by calculating averages for each attribute.

Die Bestimmung von Anomalien basierend auf Histogrammmittelwerten und Tiefpassfiltern, wie sie üblicherweise für die Reichweitekriterien erfolgt, kann versehentlich entscheidende Informationen eliminieren. Ein Nachverfolgen von Objekten kann Objekte über mehrere Zyklen am Leben erhalten, auch wenn das Radar das Objekt verloren hat. Darüber hinaus kann eine Reaktion auf eine plötzliche Änderung zu langsam und begrenzt sein. Aus Sicherheitsgründen sollte jedoch eine plötzliche Blockierung, beispielsweise durch Matsch vom Straßenrand, unverzüglich erkannt werden. Langsame Reaktionszeiten können zu Fehlerkennungen und falschen Entscheidungen eines Fahrerassistenzsystems führen.Determining anomalies based on histogram averages and low pass filters, as is commonly done for range criteria, can inadvertently eliminate crucial information. Tracking objects can keep objects alive for several cycles, even if the radar has lost the object. In addition, a response to a sudden change may be too slow and limited. For safety reasons, however, a sudden blockage, for example due to mud from the roadside, should be detected immediately. Slow reaction times can lead to misrecognition and wrong decisions of a driver assistance system.

Angesichts des Vorstehenden ist es daher eine Aufgabe der vorliegenden Erfindung, eine Vorgehensweise zum frühestmöglichen Erkennen einer Radarblockierung bereitzustellen.In view of the foregoing, it is therefore an object of the present invention to provide an approach for detecting radar blocking as early as possible.

Erfindungsgemäß wird ein Verfahren zum Erkennen einer Blockierung einer Radarvorrichtung basierend auf einem Radarbild, wie in Anspruch 1 angegeben, bereitgestellt. Die Erfindung stellt ferner eine Vorrichtung zum Erkennen einer Blockierung einer Radarvorrichtung basierend auf einem Radarbild, wie in Anspruch 13 angegeben, bereit. Ferner betrifft die Erfindung ein Fahrerassistenzsystem für ein Fahrzeug, wie in Anspruch 14 angegeben, und ein Fahrzeug, wie in Anspruch 15 angegeben.According to the invention, a method is provided for detecting a blockage of a radar device based on a radar image, as specified in claim 1. The invention further provides an apparatus for detecting a blockage of a radar device based on a radar image as recited in claim 13. Furthermore, the invention relates to a driver assistance system for a vehicle as specified in claim 14, and a vehicle as specified in claim 15.

Gemäß einem ersten Aspekt stellt die Erfindung daher ein Verfahren zum Erkennen einer Blockierung der Radarvorrichtung basierend auf einem Radarbild bereit. Das Radarbild umfasst eine Mehrzahl von Pixeln, wobei den Pixeln wenigstens ein Attribut zugeordnet ist. Bei jedem Zyklus wird unter Verwendung des Radarbildes des vorherigen Zyklus ein Vorhersage-Radarbild vorhergesagt. Ferner werden durch die Radarvorrichtung neue Radardaten erfasst. Basierend auf den erfassten neuen Radardaten werden den entsprechenden Pixeln des Radarbildes Messdatencluster zugeordnet. Es wird ein aktualisiertes Radarbild erzeugt, indem basierend auf dem Messdatencluster, der dem jeweiligen Pixel zugeordnet ist, die Attribute der Pixel des Radarbildes aktualisiert werden. Das Vorhersage-Radarbild wird mit dem aktualisierten Radarbild verglichen, und basierend auf dem Vergleich des Vorhersage-Radarbildes und des aktualisierten Radarbildes wird erkannt, ob eine Blockierung der Radarvorrichtung aufgetreten ist.According to a first aspect, therefore, the invention provides a method for detecting a blockage of the radar device based on a radar image. The radar image comprises a plurality of pixels, wherein the pixels are assigned at least one attribute. At each cycle, a predictive radar image is predicted using the radar image from the previous cycle. Furthermore, the radar device detects new radar data. Based on the acquired new radar data, measurement data clusters are assigned to the corresponding pixels of the radar image. An updated radar image is generated by updating the attributes of the pixels of the radar image based on the measurement data cluster associated with the respective pixel. The prediction radar image is compared with the updated radar image, and based on the comparison of the prediction radar image and the updated radar image, it is detected whether a jam of the radar device has occurred.

Gemäß einem zweiten Aspekt stellt die Erfindung eine Vorrichtung zum Erkennen einer Blockierung einer Radarvorrichtung basierend auf dem Radarbild bereit. Das Radarbild weist eine Mehrzahl von Pixeln auf, wobei den Pixeln wenigstens ein Attribut zugeordnet ist. Die Vorrichtung umfasst eine Recheneinheit, die dazu ausgelegt ist, bei jedem Zyklus mehrere Schritte auszuführen. Konkret sagt die Recheneinheit unter Verwendung des Radarbildes des vorherigen Zyklus ein Vorhersage-Radarbild vorher, empfängt durch die Radarvorrichtung erfasste neue Radardaten und ordnet basierend auf den erfassten neuen Radardaten den entsprechenden Pixeln des Radarbildes Messdatencluster zu. Die Recheneinheit erzeugt ferner ein aktualisiertes Radarbild, indem sie basierend auf dem Messdatencluster, der dem jeweiligen Pixel zugeordnet ist, die Attribute der Pixel des Radarbildes aktualisiert. Die Recheneinheit vergleicht das Vorhersage-Radarbild mit dem aktualisierten Radarbild. Die Recheneinheit erkennt basierend auf dem Vergleich des Vorhersage-Radarbildes und des aktualisierten Radarbildes, ob eine Blockierung der Radarvorrichtung aufgetreten ist. According to a second aspect, the invention provides a device for detecting a blockage of a radar device based on the radar image. The radar image has a plurality of pixels, wherein the pixels are assigned at least one attribute. The device includes a computing unit that is configured to perform multiple steps each cycle. Specifically, using the radar image of the previous cycle, the arithmetic unit predicts a prediction radar image, receives new radar data detected by the radar device, and assigns measurement data clusters to the corresponding pixels of the radar image based on the acquired new radar data. The computing unit also generates an updated radar image by updating the attributes of the pixels of the radar image based on the measurement data cluster associated with the respective pixel. The arithmetic unit compares the prediction radar image with the updated radar image. The arithmetic unit detects whether a blockage of the radar device has occurred based on the comparison of the prediction radar image and the updated radar image.

Gemäß einem dritten Aspekt stellt die Erfindung ein Fahrerassistenzsystem für ein Fahrzeug bereit, das eine Radarvorrichtung, die zum Erzeugen von Radardaten ausgelegt ist, und eine Vorrichtung zum Erkennen einer Blockierung der Radarvorrichtung basierend auf den Radardaten umfasst.According to a third aspect, the invention provides a driver assistance system for a vehicle comprising a radar device adapted to generate radar data and a device for detecting a blockage of the radar device based on the radar data.

Gemäß einem vierten Aspekt stellt die Erfindung ein Fahrzeug bereit, das ein Fahrerassistenzsystem umfasst.According to a fourth aspect, the invention provides a vehicle comprising a driver assistance system.

Verschiedene bevorzugte Merkmale der Erfindung sind in den abhängigen Ansprüchen angegeben.Various preferred features of the invention are set forth in the dependent claims.

Gemessene Radardaten werden kontinuierlich kombiniert, um eine Art „Film“ der Umgebung des Fahrzeugs zu erzeugen. Die Umgebung des Fahrzeugs muss sich gemäß den Gesetzen der Physik ändern, d. h. an den Grenzen können neue Objekte auftauchen, und im Umfeld des Fahrzeugs können langsame Veränderungen eintreten. Wenn in dem Film eine Anomalie erkannt wird, entspricht die Änderung nicht den erwarteten Gesetzen und es wird eine Blockierung erkannt. Um zu definieren, was es bedeutet, dass der kontinuierliche Datenfluss oder Datenstrom den erwarteten Gesetzen genügt, d. h. sich natürlich ändert, ist ein Vergleichsobjekt erforderlich. Dieses Vergleichsobjekt wird durch Bereitstellen eines Vorhersage-Radarbildes basierend auf der Historie der gemessenen Radardaten bereitgestellt. Der Unterschied zwischen dem Vorhersage-Radarbild und dem aktualisierten Radarbild sollte klein sein, d. h. nur angemessenen Abweichungen entsprechen.Measured radar data is continuously combined to create a kind of "film" of the environment of the vehicle. The environment of the vehicle must change according to the laws of physics, i. H. new objects can emerge at the borders, and slow changes can occur around the vehicle. If an anomaly is detected in the movie, the change does not match the expected laws and blocking is detected. To define what it means that the continuous data flow or data stream meets the expected laws, i. H. changes naturally, a comparison object is required. This comparison object is provided by providing a prediction radar image based on the history of the measured radar data. The difference between the prediction radar image and the updated radar image should be small, i. H. only correspond to reasonable deviations.

Größere, unnatürliche Abweichungen können mittels statistischer Verfahren, insbesondere Martingalalgorithmen und Austauschbarkeitstests, erkannt werden. Die Anomalieerkennung ist allgemein auf jedes beliebige Radarbild anwendbar und erfordert keine bestimmte statistische Verteilung der Attribute, wie etwa eine Gaußsche Verteilung. Larger, unnatural deviations can be detected by statistical methods, in particular martingale algorithms and interchangeability tests. Anomaly detection is generally applicable to any radar image and does not require a particular statistical distribution of the attributes, such as a Gaussian distribution.

Darüber hinaus werden Anomalien unverzüglich erkannt und mögliche falsche Vorhersagen auf Basis fehlerhafter Radardaten können vermieden werden. Die Qualität der auf den Radardaten basierenden Vorhersagen wird verbessert. Eine verbesserte Qualität geht mit besseren Entscheidungen auf Basis der Radardaten einher, und die Sicherheit des Fahrzeugs kann erhöht werden.In addition, anomalies are detected immediately and possible false predictions based on incorrect radar data can be avoided. The quality of radar-based predictions is improved. Improved quality goes hand in hand with better radar-based decision-making and vehicle safety can be increased.

Gemäß einer weiteren Ausführungsform des Verfahrens wird das Vorhersage-Radarbild basierend auf einem Kalmanfilter-Verfahren vorhergesagt. Ein Kalmanfiltern berücksichtigt eine Reihe vorheriger Radarbilder und verwendet Bayessche Inferenz, um eine gemeinsame Wahrscheinlichkeitsverteilung über die Variablen hinweg für zukünftige Zeitpunkte vorherzusagen.In accordance with another embodiment of the method, the predictive radar image is predicted based on a Kalman filter method. Kalman filtering takes into account a series of prior radar images and uses Bayesian inference to predict a common probability distribution across the variables for future time points.

Gemäß einer bevorzugten Ausführungsform des Verfahrens werden den entsprechenden Pixeln des Radarbildes basierend auf einer der Messung zugeordneten räumlichen Position und einem dem Pixel entsprechenden räumlichen Bereich Messdatencluster zugeordnet. Die Messungen können Informationen wie etwa eine(n) Position, Geschwindigkeit, Radarquerschnitt (radar cross section - RCS) und Mikrodopplereffekt-Informationen, die Objekte oder Reflexionspunkte an der räumlichen Position betreffen, umfassen.According to a preferred embodiment of the method, measurement data clusters are assigned to the corresponding pixels of the radar image based on a spatial position associated with the measurement and a spatial region corresponding to the pixel. The measurements may include information such as position (s), velocity, radar cross section (RCS), and microdoppler effect information concerning objects or reflection points at the spatial position.

Gemäß einer weiteren Ausführungsform des Verfahrens wird bestimmt, ob ein Unterschied zwischen wenigstens einem der Attribute, der basierend auf der Messung bestimmt wird, sich um mehr als einen vorgegeben Schwellenwert von dem entsprechenden Attribut des Pixels unterscheidet, das einen entsprechenden räumlichen Bereich aufweist, der die der Messung zugeordnete räumliche Position umfasst. Wenn dies der Fall ist, wird die Messung einem Pixel mit einem entsprechenden räumlichen Bereich benachbart zu der räumlichen Position, die der Messung zugeordnet ist, zugeordnet. Die Messungen können also benachbarten Pixeln zugeordnet werden, um ein Radarbild mit besserem Kontrast bereitzustellen. Beispielsweise sucht, wenn in dem gleichen Pixel sowohl sich bewegende als auch stationäre Objekte erkannt werden, das System ein benachbartes Pixel und ordnet einen der zwei Arten von Clustern dem benachbarten Pixel mit geringerer Zuordnungswahrscheinlichkeit zu. According to a further embodiment of the method, it is determined whether a difference between at least one of the attributes, which is determined based on the measurement, differs by more than a predetermined threshold from the corresponding attribute of the pixel having a corresponding spatial area containing the includes the spatial position associated with the measurement. If so, the measurement is associated with a pixel having a corresponding spatial area adjacent to the spatial location associated with the measurement. The measurements can thus be assigned to neighboring pixels in order to provide a radar image with better contrast. For example, if both moving and stationary objects are detected in the same pixel, the system searches for an adjacent pixel and assigns one of the two types of clusters to the adjacent lower-probability pixel.

Gemäß einer weiteren Ausführungsform des Verfahrens umfasst das Aktualisieren der Attribute eines Pixels des Radarbildes ein Extrahieren neuer Attributwerte für jede dem Pixel zugeordnete Messung, ein Berechnen gewichteter Mittelwerte für jedes Attribut basierend auf den extrahierten neuen Attributwerten und ein Aktualisieren der Attribute des Pixels unter Verwendung des berechneten gewichteten Mittelwertes des jeweiligen Attributs.According to another embodiment of the method, updating the attributes of a pixel of the radar image comprises extracting new attribute values for each measurement associated with the pixel, calculating weighted averages for each attribute based on the extracted new attribute values, and updating the attributes of the pixel using the calculated one weighted average of each attribute.

Gemäß einer weiteren Ausführungsform des Verfahrens umfasst das Berechnen der gewichteten Mittelwerte für jedes Attribut ein Wichten der extrahierten neuen Attributwerte basierend auf einer Mahalanobis-Distanz zwischen einer der entsprechenden Messung zugeordneten räumlichen Position und einem Mittelpunkt eines dem Pixel entsprechenden räumlichen Bereichs.According to another embodiment of the method, calculating the weighted averages for each attribute comprises weighting the extracted new attribute values based on a Mahalanobis distance between a spatial position associated with the corresponding measurement and a midpoint of a spatial region corresponding to the pixel.

Gemäß einer weiteren Ausführungsform des Verfahrens umfassen die Attribute wenigstens eines aus einem Radarquerschnitt, einer Relativgeschwindigkeit und einer Fehlerkennungswahrscheinlichkeit.According to a further embodiment of the method, the attributes comprise at least one of a radar cross section, a relative speed and a probability of error detection.

Gemäß einer weiteren Ausführungsform des Verfahrens umfasst das Vergleichen des Vorhersage-Radarbildes mit dem aktualisierten Radarbild wenigstens einen aus einem Austauschbarkeitstest und einem Martingaldifferenztest.According to another embodiment of the method, comparing the prediction radar image with the updated radar image comprises at least one of an interchangeability test and a martingale difference test.

Gemäß einer Ausführungsform umfasst das Vergleichen des Vorhersage-Radarbildes mit dem aktualisierten Radarbild ein Bestimmen wenigstens einer jeweiligen Zone für jedes des Vorhersage-Radarbildes und des aktualisierten Radarbildes, wobei die Zone eine Mehrzahl von Pixeln aufweist. Auf die entsprechenden Zonen wird wenigstens einer aus einem Austauschbarkeitstest und einem Martingaldifferenztest angewendet. Die Zonen können basierend auf Unterschieden zwischen den entsprechenden Pixeln des Radarbildes und des Vorhersage-Radarbildes bestimmt werden. Wenn entsprechende Unterschiedswerte einen bestimmten Schwellenwert überschreiten, wird das Pixel einer jeweiligen Zone zugeordnet.According to one embodiment, comparing the predicted radar image with the updated radar image comprises determining at least one respective zone for each of the prediction radar image and the updated radar image, the zone having a plurality of pixels. At least one of an interchangeability test and a martingale difference test is applied to the respective zones. The zones may be determined based on differences between the corresponding pixels of the radar image and the prediction radar image. If such differences exceed a certain threshold, the pixel is assigned to each zone.

Gemäß einer weiteren Ausführungsform des Verfahrens umfasst das Vergleichen des Vorhersage-Radarbildes mit dem aktualisierten Radarbild ein Bestimmen eines Fremdheitsmaßes, das einen Unterschied zwischen dem Vorhersage-Radarbild und dem aktualisierten Radarbild kennzeichnet, unter Verwendung eines Klassifikators. Basierend auf dem Fremdheitsmaß wird die Austauschbarkeit geprüft. Basierend auf dem Austauschbarkeitstest wird ein Martingalwert berechnet.In accordance with another embodiment of the method, comparing the prediction radar image with the updated radar image includes determining an extraneous measure indicative of a difference between the prediction radar image and the updated radar image using a classifier. Based on the foreignness measure, the interchangeability is checked. Based on the interchangeability test, a martingale is calculated.

Gemäß einer weiteren Ausführungsform des Verfahrens wird der Klassifikator basierend auf einer Support Vector Machine bestimmt, die basierend auf Lerndaten erzeugt wird. Der Klassifikator bestimmt Distanzen zwischen dem aktualisierten Radarbild und/oder dem Vorhersage-Radarbild ausgehend von einer Hyperebene, die durch die Support Vector Machine erzeugt wird. Die Support Vector Machine wird also basierend auf Offline-Trainingsdaten erzeugt.According to another embodiment of the method, the classifier is determined based on a support vector machine that is generated based on learning data. The classifier determines distances between the updated radar image and / or the prediction radar image from a hyperplane generated by the Support Vector Machine. The Support Vector Machine is thus generated based on offline training data.

Gemäß einer weiteren Ausführungsform des Verfahrens wird, wenn eine Blockierung erkannt wurde, basierend auf dem Vergleich des Vorhersage-Radarbildes mit dem aktualisierten Radarbild ein Blockierungsbereich identifiziert.In accordance with another embodiment of the method, if a stall has been detected, a stall area is identified based on the comparison of the prediction radar image with the updated radar image.

Gemäß einer weiteren Ausführungsform kann eine Ableitung der Fremdheitsfunktion analysiert werden, um Anomalien zu bestimmen.In another embodiment, a derivative of the foreign function may be analyzed to determine anomalies.

Gemäß einer Ausführungsform des Verfahrens wird der Martingalwert unter Verwendung eines die Doobsche Maximalungleichung beinhaltenden Tests und/oder eines die Hoeffding-Azuma-Ungleichung beinhaltenden Tests evaluiert, um eine Konzeptänderung zu identifizieren, und es wird eine Blockierung der Radarvorrichtung erkannt, wenn eine Konzeptänderung identifiziert wird.According to an embodiment of the method, the martingale value is evaluated using a test including the Doob's maximum inequality test and / or a test involving the Hoeffding-Azuma inequality to identify a concept change and blocking of the radar device is detected when a concept change is identified ,

Für ein vollständigeres Verständnis der Erfindung und der Vorteile derselben werden in der folgenden Beschreibung Ausführungsbeispiele der Erfindung ausführlicher erläutert, und zwar unter Bezugnahme auf die beigefügten Zeichnungsfiguren, in denen gleiche Bezugssymbole gleiche Teile bezeichnen und in denen:

  • 1 ein schematisches Blockdiagramm einer Vorrichtung zum Erkennen einer Blockierung einer Radarvorrichtung gemäß einer Ausführungsform der Erfindung zeigt;
  • 2 ein beispielhaftes Radarbild zeigt;
  • 3 ein beispielhaftes neues Radarbild zeigt;
  • 4 ein schematisches Blockdiagramm eines Fahrerassistenzsystems gemäß einer Ausführungsform der Erfindung zeigt;
  • 5 ein schematisches Blockdiagramm eines Fahrzeugs gemäß einer Ausführungsform der Erfindung zeigt; und
  • 6 ein schematisches Ablaufdiagramm eines Verfahrens zum Erkennen einer Blockierung einer Radarvorrichtung gemäß einer Ausführungsform der Erfindung zeigt.
For a more complete understanding of the invention and the advantages thereof, in the following description, embodiments of the invention will be explained in more detail, with reference to the accompanying drawing figures in which like reference numerals designate like parts and in which:
  • 1 shows a schematic block diagram of a device for detecting a blockage of a radar device according to an embodiment of the invention;
  • 2 shows an exemplary radar image;
  • 3 shows an exemplary new radar image;
  • 4 shows a schematic block diagram of a driver assistance system according to an embodiment of the invention;
  • 5 shows a schematic block diagram of a vehicle according to an embodiment of the invention; and
  • 6 a schematic flow diagram of a method for detecting a blockage of a radar device according to an embodiment of the invention shows.

Die beigefügten Zeichnungen sind zwecks eines tieferen Verständnisses der vorliegenden Erfindung beigelegt. Die Elemente der Zeichnungen sind, bezogen aufeinander, nicht unbedingt maßstabsgetreu dargestellt. Es versteht sich ferner, dass bestimmte Verfahrensschritte in einer bestimmten Reihenfolge beschrieben sein können, aber gleichzeitig oder in einer anderen Reihenfolge durchgeführt werden können.The accompanying drawings are included for a deeper understanding of the present invention. The elements of the drawings are not necessarily drawn to scale with respect to each other. It is further understood that certain process steps in a particular Order can be described, but can be performed simultaneously or in a different order.

1 zeigt ein schematisches Blockdiagramm einer Vorrichtung 1 zum Erkennen einer Blockierung einer Radarvorrichtung. 1 shows a schematic block diagram of a device 1 for detecting a blockage of a radar device.

Die Vorrichtung 1 umfasst eine Schnittstelle 2, die mit der Radarvorrichtung verbunden und dazu ausgelegt ist, Radardaten von der Radarvorrichtung zu empfangen.The device 1 includes an interface 2 which is connected to the radar device and adapted to receive radar data from the radar device.

Die Vorrichtung 1 umfasst ferner eine Recheneinheit 3, die mit der Schnittstelle 2 verbunden und dazu ausgelegt ist, die durch die Schnittstelle 2 empfangenen Radardaten näher zu analysieren.The device 1 further comprises a computing unit 3 that with the interface 2 connected and designed by the interface 2 to analyze the received radar data.

Die Recheneinheit 3 ist dazu ausgelegt, ein Radarbild zu erzeugen und das Radarbild basierend auf den Radardaten zu aktualisieren. Das Radarbild umfasst eine Mehrzahl von Pixeln. Jedes Pixel stellt einen bestimmten räumlichen Bereich mit vorgegebener Abmessung in einem Umfeld eines Fahrzeugs dar. Die Recheneinheit 3 ordnet jedem Pixel Attribute zu. Die Attribute betreffen Objekte, die durch die Radarvorrichtung innerhalb des dem Pixel zugeordneten Bereichs erkannt wurden. Die Attribute können einen Radarquerschnitt, eine Relativgeschwindigkeit und eine Fehlerkennungswahrscheinlichkeit eines möglichen Objekts innerhalb des dem Pixel entsprechenden räumlichen Bereichs umfassen. Die Attribute können über dem Pixel zugeordnete Cluster hinweg gemittelt werden, wobei jedes Element des Clusters einzelne Messungen der Attribute basierend auf den Radardaten darstellt.The arithmetic unit 3 is configured to generate a radar image and to update the radar image based on the radar data. The radar image includes a plurality of pixels. Each pixel represents a specific spatial area with a given dimension in an environment of a vehicle. The arithmetic unit 3 assigns attributes to each pixel. The attributes relate to objects detected by the radar device within the area associated with the pixel. The attributes may include a radar cross-section, a relative velocity, and a probability of detecting a possible object within the spatial region corresponding to the pixel. The attributes may be averaged over clusters associated with the pixel, with each element of the cluster representing individual measurements of the attributes based on the radar data.

Die Recheneinheit 3 sagt unter Verwendung des aktuellen Radarbildes ein Vorhersage-Radarbild vorher. Das Vorhersage-Radarbild kann unter Verwendung eines Kalmanfilters aus dem aktuellen Radarbild erhalten werden, wobei vorzugsweise auch die Historie des Radarbildes berücksichtigt wird. Das Vorhersage-Radarbild wird in einer Speichereinheit der Vorrichtung 1 gespeichert.The arithmetic unit 3 predicts a prediction radar image using the current radar image. The prediction radar image may be obtained using a Kalman filter from the current radar image, preferably also taking into account the history of the radar image. The prediction radar image is stored in a memory unit of the device 1 saved.

Nun erfasst die Radarvorrichtung neue Radardaten, die durch die Schnittstelle 2 empfangen und an die Recheneinheit 3 gesendet werden. Die Recheneinheit 3 aktualisiert basierend auf den erfassten neuen Radardaten das Radarbild. Die Radardaten entsprechen Clustern oder Sätzen von Messungen, die einem jeweiligen räumlichen Bereich zugeordnet werden können. Jeder Cluster wird somit dem Pixel zugeordnet, das dem jeweiligen räumlichen Bereich entspricht. Der Cluster kann auch benachbarten Pixeln zugeordnet werden, wenn auf diese Weise schärfer getrennte Werte der Attribute erhalten werden können. Außerdem können unmögliche oder unwahrscheinliche Cluster herausgefiltert werden.Now the radar device detects new radar data passing through the interface 2 received and to the arithmetic unit 3 be sent. The arithmetic unit 3 updates the radar image based on the acquired new radar data. The radar data corresponds to clusters or sets of measurements that can be assigned to a respective spatial area. Each cluster is thus assigned to the pixel that corresponds to the respective spatial area. The cluster can also be assigned to neighboring pixels, if in this way sharper separated values of the attributes can be obtained. In addition, impossible or improbable clusters can be filtered out.

Jeder Cluster umfasst mehrere Attribute, die den Attributen des Pixels entsprechen. Werte der Attribute werden dazu verwendet, die aktuellen Werte der Attribute anzupassen oder zu aktualisieren. Somit wird ein neues Radarbild erzeugt. Die Attribute der Pixel des neuen Radarbildes können unter Verwendung gewichteter Mittelwerte des entsprechenden Wertes des Attributs jedes Elements des dem Pixel zugeordneten Clusters, zusammen mit dem vorherigen Wert des Attributs, erhalten werden. Ein jeweiliges Gewicht kann unter Verwendung einer Mahanalobis-Distanz zum Wert des Pixels, d. h. einem Mittelpunkt eines dem Pixel entsprechenden räumlichen Bereichs, erhalten werden.Each cluster has several attributes that correspond to the attributes of the pixel. Values of the attributes are used to adjust or update the current values of the attributes. Thus, a new radar image is generated. The attributes of the pixels of the new radar image may be obtained using weighted averages of the corresponding value of the attribute of each element of the cluster associated with the pixel, along with the previous value of the attribute. A respective weight may be calculated using a Mahanalobis distance to the value of the pixel, i. H. a center of a pixel-corresponding spatial area.

Als Beispiel ist in 2 ein Radarbild 10a mit Pixeln P11 bis Pnm gezeigt. Die Größe des Radarbildes wird durch den räumlichen Bereich bestimmt, der durch die Radarvorrichtung erkannt werden kann. Für jedes Pixel sind jeweilige Messungen eines der Attribute gezeigt, die drei unterschiedlichen Werten A1, A2, A3 des Attributs entsprechen. Die Werte können beispielsweise sich bewegenden Objekten A1, unbekannten Objekten A2 und statischen Objekten A3 entsprechen. Dem Pixel seinerseits wird basierend auf einem Mittlungsverfahren über die Werte der jeweiligen Messungen hinweg auch einer der Werte A1, A2, A3 zugeordnet. Außerdem wird, wenn für ein Pixel keine oder nicht genügend Messung(en) erhalten werden, das Attribut des Pixels mit dem Wert „kein Objekt“ belegt. Das in 2 abgebildete Szenario entspricht einem Fahrzeug, das sich an einer räumlichen Position befindet, die dem mittleren unteren Rand des Radarbildes entspricht, und entlang einer Fernstraße mit Hindernissen entlang der linken und rechten Spur fährt.As an example, in 2 a radar picture 10a with pixels P11 shown until Pnm. The size of the radar image is determined by the spatial range that can be detected by the radar device. For each pixel, respective measurements of one of the attributes are shown, the three different values A1 . A2 . A3 of the attribute. The values can be, for example, moving objects A1 , unknown objects A2 and static objects A3 correspond. The pixel in turn becomes one of the values based on an averaging process over the values of the respective measurements A1 . A2 . A3 assigned. In addition, if no or insufficient measurement (s) are obtained for a pixel, the attribute of the pixel is assigned the value "no object". This in 2 The scenario depicted corresponds to a vehicle that is at a spatial position that corresponds to the middle lower edge of the radar image and that travels along a highway with obstacles along the left and right lanes.

Jedem Attribut oder der Kombination aller Attribute kann abhängig vom Wert des Attributs oder der Kombination der Attribute ein bestimmter Farbwert zugeordnet werden. Somit erzeugt die Recheneinheit 3 einen „Radarfilm“, der die zeitlichen Änderungen der Attribute des Radarbildes zeigt.Each attribute or combination of attributes can be assigned a specific color value, depending on the value of the attribute or the combination of attributes. Thus, the arithmetic unit generates 3 a "Radar movie" that shows the temporal changes of the attributes of the radar image.

Nun vergleicht die Recheneinheit das Vorhersage-Radarbild mit dem aktualisierten Radarbild. Zuerst kann die Recheneinheit 3 bestimmte Zonen innerhalb des Radarbildes identifizieren, wobei jede Zone einer Mehrzahl verbundener Pixel entspricht. Die Zonen können basierend auf einem Unterschied zwischen den Attributen des neuen Radarbildes und des Vorhersage-Radarbildes bestimmt werden. Wenn der Unterschied für eines oder alternativ alle der Attribute jeweilige Schwellenwerte überschreitet, wird das Pixel einer Zone zugeordnet.Now, the arithmetic unit compares the prediction radar image with the updated radar image. First, the arithmetic unit 3 identify certain zones within the radar image, each zone corresponding to a plurality of connected pixels. The zones may be determined based on a difference between the attributes of the new radar image and the prediction radar image. If the difference for one or, alternatively, all of the attributes exceeds respective thresholds, the pixel is assigned to a zone.

Gemäß einem ersten Test kann die Austauschbarkeit des Vorhersage-Radarbildes und des neuen Radarbildes berechnet werden. Die Austauschbarkeit kann auch für jede Zone und/oder für das gesamte Radarbild bestimmt werden. Die Austauschbarkeit kann unter Verwendung eines Martingalwertes getestet werden. According to a first test, the interchangeability of the prediction radar image and the new radar image can be calculated. The interchangeability can also be determined for each zone and / or for the entire radar image. Interchangeability can be tested using a Martingale value.

Austauschbarkeit ist wie folgt definiert. Für eine Folge { Z i : 1 i < }

Figure DE102017220243B3_0001
von Zufallsvariablen ist eine finite Folge von Zufallsvariablen Z1, ..., Zn austauschbar, wenn die gemeinsame Verteilung p(Zl...Zn) im Rahmen einer beliebigen Permutation der Indices der Zufallsvariablen invariant ist.Interchangeability is defined as follows. For a consequence { Z i : 1 i < }
Figure DE102017220243B3_0001
of random variables is a finite sequence of random variables Z1 , ..., Zn interchangeable, if the common distribution p (Zl ... Zn) is invariant within any permutation of the indices of the random variables.

Ein Martingal ist eine Folge von Zufallsvariablen { M i : 1 i < }

Figure DE102017220243B3_0002
derart, dass jedes Mn eine messbare Funktion von Zl...Zn für alle n=0, 1, ... ist, d. h. insbesondere: M0 ist ein konstanter Wert, und der bedingte Erwartungswert von Mn+1, ausgehend von M0, ..., Mn, ist gleich Mn, E(Mn+1|M1...Mn)=Mn.A martingale is a sequence of random variables { M i : 1 i < }
Figure DE102017220243B3_0002
such that each Mn is a measurable function of Zl ... Zn for all n = 0, 1, ..., ie in particular: M0 is a constant value, and the conditional expectation of Mn + 1, starting from M0,. .., Mn, is equal to Mn, E (Mn + 1 | M1 ... Mn) = Mn.

Die Austauschbarkeit wird unter Verwendung des Martingals durch Beobachten eines neuen Datenpunktes getestet. Ein Lernalgorithmus gibt einen positiven Martingalwert aus, der die Evidenzstärke widerspiegelt, die gegen die Nullhypothese bezüglich der Datenaustauschbarkeit, d. h. keine Anomalie, ermittelt wurde.Interchangeability is tested using the martingale by observing a new data point. A learning algorithm outputs a positive martingale value that reflects the level of evidence that violates the null hypothesis of interchangeability; H. no anomaly, was determined.

Die Recheneinheit 3 kann die Fremdheit eines/r Unterschieds oder Änderung zwischen dem Vorhersage-Radarbild und dem neuen Radarbild berechnen. Die Berechnung der Fremdheit wird vorzugsweise für jede durch die Recheneinheit 3 bestimmte Zone durchgeführt. Außerdem kann die Fremdheit für das gesamte Radarbild bestimmt werden. Das Fremdheitsmaß kann unter Verwendung eines Klassifikator verringert werden, der durch eine Support Vector Machine realisiert sein kann. Die Support Vector Machine kann basierend auf Offline-Lerndaten oder -Beobachtungen erzeugt werden. Die Fremdheit hängt davon ab, wie sehr das neue Radarbild sich von dem Vorhersage-Radarbild unterscheidet. Es kann für jedes Attribut jedes Pixels ein jeweiliges Fremdheitsmaß erhalten werden. Aus den Fremdheitsmaßen werden p-Werte für das neue Radarbild extrahiert.The arithmetic unit 3 can calculate the strangeness of a difference or change between the prediction radar image and the new radar image. The calculation of the foreignness is preferably for each by the arithmetic unit 3 certain zone performed. In addition, the strangeness for the entire radar image can be determined. The strangeness measure may be reduced using a classifier that may be implemented by a support vector machine. The Support Vector Machine can be generated based on offline learning data or observations. The strangeness depends on how much the new radar image differs from the prediction radar image. For each attribute of each pixel, a respective measure of foreignness can be obtained. From the extrinsic measures, p-values for the new radar image are extracted.

Gemäß einem statistischen Theorem sind p-Werte pl, p2,..., die durch eine zufällige p-Wert-Funktion V ausgegeben werden, gleichmäßig in dem Intervall [0,1] verteilt, vorausgesetzt, dass Eingangswerte z1, z2, ... I mittels einer austauschbaren Wahrscheinlichkeitsverteilung im Eingaberaum erzeugt werden. Diese Eigenschaft ausgegebener p-Werte wird verletzt, wenn die Austauschbarkeitsbedingung nicht mehr erfüllt ist. Dementsprechend kann durch Prüfen der Verteilung der p-Werte die Austauschbarkeit des neuen Radarbildes und des Vorhersage-Radarbildes verifiziert oder falsifiziert werden.According to a statistical theorem, p-values pl, p2, ... output by a random p-value function V are evenly distributed in the interval [0,1], provided that input values z1, z2, .. I are generated by means of an exchangeable probability distribution in the input space. This property of output p-values is violated if the interchangeability condition is no longer met. Accordingly, by examining the distribution of the p-values, the interchangeability of the new radar image and the prediction radar image can be verified or falsified.

Nun wird ein zufälliges Supermartingal wie folgt konstruiert: M n ( ε ) = i = 1 n ( ε p i ε 1 ) .

Figure DE102017220243B3_0003
Now a random Supermartingal is constructed as follows: M n ( ε ) = Π i = 1 n ( ε p i ε - 1 ) ,
Figure DE102017220243B3_0003

Wenn θn=1, ist die p-Wert-Funktion V deterministisch.When θn = 1, the p-value function V is deterministic.

Nun kann eine Konzeptänderung bestimmt werden. Eine Folge von Datenpunkten mit einer Konzeptänderung kann als die Verkettung von zwei Datensegmenten verstanden werden. Durch Verlagern eines Datenpunktes Z aus einer Folge an eine Position in der nächsten Folge hebt der Datenpunkt sich ab. Dementsprechend ist die Austauschbarkeitsbedingung verletzt. Ein konzeptionell stabiler Datenstrom erfordert Austauschbarkeit. Daher legt das Fehlen von Austauschbarkeit eine Konzeptänderung nahe.Now a concept change can be determined. A sequence of data points with a concept change can be understood as the concatenation of two data segments. By moving a data point Z from a sequence to a position in the next sequence, the data point will pick up. Accordingly, the interchangeability condition is violated. A conceptually stable data stream requires interchangeability. Therefore, the lack of interchangeability suggests a concept change.

Wenn eine Konzeptänderung erkannt wurde, werden die aus der zufälligen p-Wert-Funktion ausgegebenen p-Werte schief und die p-Wert-Verteilung ist nicht mehr einheitlich. Der Kolmogorov-Smirnov-Test sagt aus, dass die p-Werte nach einer Konzeptänderung nicht mehr einheitlich verteilt sind. Die Nullhypothese „Die ausgegebenen p-Werte sind einheitlich verteilt“ kann bei einem Signifikanzniveau a=0,05 und nach Erzeugen einer ausreichenden Anzahl von Datenpunkten zurückgewiesen werden. Die schiefe p-Wert-Verteilung kann in einem Martingaltest verwendet werden, um eine Anomalie zu bestimmen, weil kleine p-Werte die Martingalwerte aufblähen.When a concept change is detected, the p-values output from the random p-value function become skewed and the p-value distribution is no longer uniform. The Kolmogorov-Smirnov test states that the p-values are no longer uniformly distributed after a concept change. The null hypothesis "The output p-values are uniformly distributed" can be rejected at a significance level a = 0.05 and after generating a sufficient number of data points. The skewed p-value distribution can be used in a martingale test to determine an anomaly because small p-values inflate martingales.

Gemäß einem zweiten Test kann die Martingaldifferenz für einen Wechsel von dem Vorhersage-Radarbild zu dem neuen Radarbild berechnet werden. Die Berechnung kann für die Zonen und/oder für das gesamte Radarbild durchgeführt werden. Nachdem ein neues Radarbild erzeugt wurde, findet ein Hypothesentesten statt, um zu entscheiden, ob in dem Datenstrom eine Konzeptänderung auftritt. Die Entscheidung kann darauf basieren, ob die Austauschbarkeitsbedingung verletzt ist, die wiederum auf dem Martingalwert basiert.According to a second test, the martingale difference for a change from the prediction radar image to the new radar image may be calculated. The calculation can be carried out for the zones and / or for the entire radar image. After a new radar image has been generated, a hypothesis test is made to determine if there is a concept change in the data stream. The decision may be based on whether the interchangeability condition is violated, which in turn is based on the martingale value.

Die Hypothesentests können auf der Doobschen Maximalungleichung oder auf der Hoeffding-Azuma-Ungleichung basieren. Die Nullhypthese H0: „In dem Datenstrom ist keine Konzeptänderung aufgetreten“ wird mit der alternativen Hypothese H1: „In dem Datenstrom tritt eine Konzeptänderung auf“ verglichen. Der Test wird fortgesetzt, solange ein erster Martingaltest ergibt: 0 < M n ( ε ) < λ .

Figure DE102017220243B3_0004
The hypothesis tests may be based on the Doob's maximal inequality or on the Hoeffding-Azuma inequality. The null hypothesis H0 : "There was no concept change in the data stream" with the alternative hypothesis H1 : "A concept change occurs in the data stream". The test will continue as long as a first martingale test results: 0 < M n ( ε ) < λ ,
Figure DE102017220243B3_0004

Dabei ist A eine positive Zahl. Die Hypothese wird abgelehnt, wenn M n ( ε ) λ .

Figure DE102017220243B3_0005
Where A is a positive number. The hypothesis is rejected if M n ( ε ) λ ,
Figure DE102017220243B3_0005

Alternativ wird der Test fortgesetzt, solange ein zweiter Martingaltest ergibt: 0 < | M n ( ε ) M n 1 ( ε ) | < t .

Figure DE102017220243B3_0006
Alternatively, the test continues as long as a second martingale test results: 0 < | M n ( ε ) - M n - 1 ( ε ) | < t ,
Figure DE102017220243B3_0006

Dabei ist t eine positive Zahl. Der Test wird abgelehnt, wenn: | M n ( ε ) M n 1 ( ε ) | t .

Figure DE102017220243B3_0007
Where t is a positive number. The test will be rejected if: | M n ( ε ) - M n - 1 ( ε ) | t ,
Figure DE102017220243B3_0007

Der Algorithmus basiert vorzugsweise auf einem Offline-Lernvorgang zum Erzeugen einer Support Vector Machine. Die Support Vector Machine ist ein Satz von Parametern und Schwellenwerten, die für den Online-Algorithmus fest programmiert werden. Es kann ein aktuell vorhandener gekennzeichneter Datenstrom verwendet werden, um die Support Vector Machine als Offline-Klassifikator zu erzeugen. Das oben beschriebene Fremdheitsmaß kann aus den Distanzen ausgehend von der Hyperebene des Radarbildes bestehen.The algorithm is preferably based on an offline learning process for generating a support vector machine. The Support Vector Machine is a set of parameters and thresholds that are hard-coded for the online algorithm. A currently identified tagged stream can be used to generate the Support Vector Machine as an offline classifier. The foreignness measure described above may consist of the distances starting from the hyperplane of the radar image.

Basierend auf dem Ergebnis wenigstens eines des ersten und zweiten Tests entscheidet die Recheneinheit 3, ob in dem Datenstrom eine Anomalie erkannt wird. Somit kann basierend auf den obenstehenden Kriterien eine teilweise oder vollständige Blockierung der Radarvorrichtung berechnet werden.Based on the result of at least one of the first and second tests, the arithmetic unit decides 3 whether an anomaly is detected in the data stream. Thus, based on the above criteria, a partial or complete blockage of the radar device can be calculated.

Als Beispiel ist in 3 ein neues Radarbild 10b gezeigt, das neue Radardaten berücksichtigt. Neue sich bewegende Objekte und unbekannte Objekte wurden in einem mittigen Bereich nahe dem Fahrzeug identifiziert, der in einem räumlichen Bereich positioniert ist, welcher der Mitte des unteren Randes des Radarbildes entspricht. Das Vorhersage-Radarbild gleicht jedoch viel mehr dem in 2 gezeigten Original-Radarbild. Insbesondere die mittigen Bereiche des Vorhersagebildes und des neuen Bildes unterscheiden sich wesentlich voneinander. Dementsprechend bestimmen der erste und zweite Test, die oben beschrieben sind, dass die Abweichungen zwischen dem Vorhersage-Radarbild und dem neuen Radarbild 10b nicht natürlichen Schwankungen entsprechen. Mit anderen Worten: Das neue Radarbild 10b und das Vorhersage-Radarbild können nicht auf statistisch natürliche Weise miteinander verbunden werden. In dem mittigen Bereich wird eine Blockierung erkannt, beispielsweise aufgrund eines Insekts auf dem Radarsensor.As an example, in 3 a new radar picture 10b shown taking into account new radar data. New moving objects and unknown objects were identified in a central area near the vehicle, positioned in a spatial area corresponding to the center of the lower edge of the radar image. However, the prediction radar image is much more similar to the one in 2 shown original radar image. In particular, the central areas of the prediction image and the new image differ significantly from each other. Accordingly, the first and second tests described above determine the deviations between the prediction radar image and the new radar image 10b do not correspond to natural fluctuations. In other words, the new radar image 10b and the predictive radar image can not be linked together in a statistically natural way. In the central area, a blockage is detected, for example due to an insect on the radar sensor.

Wenn eine Blockierung erkannt wurde, versucht die Recheneinheit 3, das Radarbild basierend auf dem vorherigen Radarbild und dem Vorhersage-Radarbild wiederherzustellen. Andernfalls, wenn keine Blockierung erkannt wird, werden durch die Radarvorrichtung neue Messungen durchgeführt und die Blockierungserkennung wird wiederholt.If a blockage has been detected, the arithmetic unit tries 3 to restore the radar image based on the previous radar image and the prediction radar image. Otherwise, if no blockage is detected, the radar device makes new measurements and the blockage detection is repeated.

Um auch eine langsame teilweise Blockierung zu erkennen, kann ein relatives Bild hinzugefügt werden, wobei jedes Pixel des relativen Bildes Schwellenwerte für die Attribute umfasst, die nicht überschritten werden sollten. Das relative Bild entspricht der maximalen Verschlechterung jedes Pixels in der Struktur. Die Recheneinheit 3 vergleicht das neue Radarbild auch mit dem relativen Bild. Wenn wenigstens eines der Attribute wenigstens eines der Pixel den Schwellenwert des entsprechenden Pixels des relativen Bildes überschreitet, wird eine Blockierung erkannt.In order to also detect slow partial blocking, a relative image may be added, with each pixel of the relative image including thresholds for the attributes that should not be exceeded. The relative image corresponds to the maximum degradation of each pixel in the structure. The arithmetic unit 3 compares the new radar image with the relative image as well. If at least one of the attributes of at least one of the pixels exceeds the threshold value of the corresponding pixel of the relative image, blocking is detected.

Allgemein kann der Algorithmus anormale Änderungen in nur wenigen Radarzyklen, d. h. vorzugsweise höchstens 20 Radarzyklen, erkennen.In general, the algorithm can make abnormal changes in just a few radar cycles, i. H. preferably at most 20 radar cycles.

4 stellt ein schematisches Blockdiagramm eines Fahrerassistenzsystems 4 dar. Das Fahrerassistenzsystem 4 umfasst eine Radarvorrichtung 5, die dazu ausgelegt ist, Radardaten zu erfassen und die Radardaten an eine Schnittstelle einer Vorrichtung 1 zum Erkennen einer Blockierung der Radarvorrichtung 5 zu übertragen. Die Vorrichtung 1 kann gemäß einer beliebigen der oben umrissenen Ausführungsformen ausgestaltet sein. 4 provides a schematic block diagram of a driver assistance system 4 dar. The driver assistance system 4 includes a radar device 5 , which is adapted to detect radar data and the radar data to an interface of a device 1 for detecting a blockage of the radar device 5 transferred to. The device 1 may be configured according to any of the above outlined embodiments.

Das Fahrerassistenzsystem 4 kann ferner dazu ausgelegt sein, Fahrfunktionen eines Fahrzeugs basierend auf dem Ergebnis der Blockierungserkennung zu steuern. Beispielsweise können die Radardaten verwendet werden, um das Umfeld des Fahrzeugs zu analysieren, und das Fahrzeug kann basierend auf dem Ergebnis der Radardaten gelenkt, beschleunigt oder verzögert werden. Nachdem eine Blockierung erkannt wurde, können die Radardaten entweder nicht länger analysiert werden oder nur teilweise analysiert werden, um die Fahrfunktionen zu steuern.The driver assistance system 4 may be further configured to control driving functions of a vehicle based on the result of the stall detection. For example, the radar data may be used to analyze the environment of the vehicle and the vehicle may be steered, accelerated or decelerated based on the result of the radar data. After a stall has been detected, the radar data can either no longer be analyzed or only partially analyzed to control the driving functions.

Darüber hinaus kann das Fahrerassistenzsystem dazu ausgelegt sein, ein Warnsignal an einen Fahrer des Fahrzeugs auszugeben, wenn eine Blockierung erkannt wurde. Die Radarvorrichtung kann nach der Erkennung einer Blockierung auch außer Betrieb gesetzt werden. In addition, the driver assistance system may be configured to output a warning signal to a driver of the vehicle when a blockage has been detected. The radar device may also be disabled after detection of a stall.

5 zeigt ein schematisches Blockdiagramm eines Fahrerzeugs 6, das ein Fahrerassistenzsystem 4, wie oben beschrieben, umfasst. 5 shows a schematic block diagram of a driver's toy 6 , which is a driver assistance system 4 as described above.

6 zeigt ein Ablaufdiagramm, das ein Verfahren zum Erkennen einer Blockierung einer Radarvorrichtung 5 darstellt. 6 FIG. 10 is a flowchart illustrating a method of detecting a blockage of a radar apparatus. FIG 5 represents.

Im ersten Verfahrensschritt S1 wird unter Verwendung des Radarbildes oder mehrerer Radarbilder des/r vorherigen Zyklus oder Zyklen ein Radarbild vorhergesagt. Das Radarbild weist eine Mehrzahl von Pixeln auf, wobei den Pixeln Attribute zugeordnet sind, wie oben beschrieben. Die Vorhersage kann auf einem Kalmanfilter basieren.In the first process step S1 A radar image is predicted using the radar image or multiple radar images of the previous cycle or cycles. The radar image has a plurality of pixels, with attributes associated with the pixels, as described above. The prediction can be based on a Kalman filter.

In einem weiteren Verfahrensschritt S2 werden durch die Radarvorrichtung neue Radardaten erfasst.In a further process step S2 the radar device detects new radar data.

Basierend auf den erfassten neuen Radardaten, werden den entsprechenden Pixeln des Radarbildes Messdatencluster zugeordnet, S3.Based on the acquired new radar data, measurement data clusters are assigned to the corresponding pixels of the radar image, S3 ,

Die Radardaten werden analysiert, S4, um ein aktualisiertes Radarbild zu erzeugen. Basierend auf der Radarvorrichtung werden Messdatencluster erzeugt und jeweiligen Pixeln zugeordnet. Die Attribute der Pixel des Radarbildes werden basierend auf den Messungsclustern aktualisiert.The radar data is analyzed S4 to generate an updated radar image. Based on the radar device, measurement data clusters are generated and assigned to respective pixels. The attributes of the pixels of the radar image are updated based on the measurement clusters.

In einem weiteren Schritt S5 wird das Vorhersage-Radarbild mit dem aktualisierten Radarbild verglichen. Der Vergleich kann die oben umrissenen Austauschbarkeitsbedingungen und Martingalalgorithmen umfassen.In a further step S5 the prediction radar image is compared with the updated radar image. The comparison may include the interchangeability conditions and martingale algorithms outlined above.

Basierend auf dem Vergleich des Vorhersage-Radarbildes und des aktualisierten Radarbildes wird eine Blockierung der Radarvorrichtung 5 erkannt, S6. Die Erkennung kann jeden der oben für die Vorrichtung 1 beschriebenen Schritte beinhalten.Based on the comparison of the prediction radar image and the updated radar image, the radar device becomes locked 5 recognized S6 , The detection can be any of the above for the device 1 include described steps.

BezugszeichenlisteLIST OF REFERENCE NUMBERS

11
Vorrichtungcontraption
22
Schnittstelleinterface
33
Recheneinheitcomputer unit
44
FahrerassistenzsystemDriver assistance system
55
Radarvorrichtungradar device
66
Fahrzeugvehicle
10a10a
Radarbildradar image
10b10b
neues Radarbildnew radar picture
PijPij
Pixelpixel

Claims (15)

Verfahren zum Erkennen einer Blockierung einer Radarvorrichtung (5) basierend auf einem Radarbild (10a), das basierend auf durch die Radarvorrichtung (5) erfassten Radardaten erhalten wird, wobei das Radarbild (10a) eine Mehrzahl von Pixeln aufweist, wobei den Pixeln wenigstens ein Attribut zugeordnet wird und wobei bei jedem Zyklus folgende Schritt ausgeführt werden: Vorhersagen (S1) eines Vorhersage-Radarbildes unter Verwendung des Radarbildes (10a) des vorherigen Zyklus; Erfassen (S2) neuer Radardaten durch die Radarvorrichtung (5); Zuordnen (S3) von Messdatenclustern zu den entsprechenden Pixeln des Radarbildes (10a) basierend auf den erfassten neuen Radardaten; Erzeugen (S4) eines aktualisierten Radarbildes (10b) durch Aktualisieren der Attribute der Pixel des Radarbildes (10a) basierend auf dem Messdatencluster, der dem jeweiligen Pixel zugeordnet ist; Vergleichen (S5) des Vorhersage-Radarbildes mit dem aktualisierten Radarbild (10b); und Erkennen (S6), ob eine Blockierung der Radarvorrichtung (5) aufgetreten ist, basierend auf dem Vergleich des Vorhersage-Radarbildes und des aktualisierten Radarbildes (10b).A method of detecting a blockage of a radar device (5) based on a radar image (10a) obtained based on radar data acquired by the radar device (5), the radar image (10a) comprising a plurality of pixels, the pixels having at least one attribute and with each cycle performing the following steps: Predicting (S1) a prediction radar image using the radar image (10a) of the previous cycle; Detecting (S2) new radar data by the radar device (5); Assigning (S3) measurement data clusters to the corresponding pixels of the radar image (10a) based on the acquired new radar data; Generating (S4) an updated radar image (10b) by updating the attributes of the pixels of the radar image (10a) based on the measurement data cluster associated with the respective pixel; Comparing (S5) the prediction radar image with the updated radar image (10b); and Detecting (S6) whether a blockage of the radar device (5) has occurred based on the comparison of the prediction radar image and the updated radar image (10b). Verfahren nach Anspruch 1, wobei das Vorhersage-Radarbild basierend auf einem Kalmanfilter-Verfahren vorhergesagt wird.Method according to Claim 1 wherein the prediction radar image is predicted based on a Kalman filter method. Verfahren nach Anspruch 1 oder 2, wobei Messdatencluster den entsprechenden Pixeln des Radarbildes (10a) basierend auf einer der Messung zugeordneten räumlichen Position und einem dem Pixel entsprechenden räumlichen Bereich zugeordnet werden.Method according to Claim 1 or 2 wherein measurement data clusters are assigned to the corresponding pixels of the radar image (10a) based on a spatial position associated with the measurement and a spatial region corresponding to the pixel. Verfahren nach Anspruch 3, wobei eine Messung einem Pixel mit einem entsprechenden räumlichen Bereich benachbart zu der räumlichen Position, die der Messung zugeordnet ist, zugeordnet wird, wenn ein Unterschied zwischen wenigstens einem der Attribute, der basierend auf der Messung bestimmt wird, um mehr als einen vorgegebenen Schwellenwert von dem entsprechenden Attribut des Pixels abweicht, das einen entsprechenden räumlichen Bereich aufweist, der die der Messung zugeordnete räumliche Position umfasst.Method according to Claim 3 wherein a measurement is associated with a pixel having a corresponding spatial area adjacent to the spatial location associated with the measurement when a difference between at least one of the attributes determined based on the measurement is greater than a predetermined threshold of deviates from the corresponding attribute of the pixel having a corresponding spatial area that includes the spatial position associated with the measurement. Verfahren nach einem der vorangehenden Ansprüche, wobei das Aktualisieren der Attribute eines Pixels des Radarbildes (10a) umfasst: Extrahieren neuer Attributwerte für jede dem Pixel zugeordnete Messung; Berechnen gewichteter Mittelwerte für jedes Attribut basierend auf den extrahierten neuen Attributwerten; und Aktualisieren der Attribute des Pixels unter Verwendung des berechneten gewichteten Mittelwertes des jeweiligen Attributs.The method of any one of the preceding claims, wherein updating the attributes of a pixel of the radar image (10a) comprises: Extracting new attribute values for each measurement associated with the pixel; Calculating weighted averages for each attribute based on the extracted new attribute values; and updating the attributes of the pixel using the calculated weighted average of the respective attribute. Verfahren nach einem der vorangehenden Ansprüche, wobei das Berechnen der gewichteten Mittelwerte für jedes Attribut ein Wichten der extrahierten neuen Attributwerte basierend auf einer Mahalanobis-Distanz zwischen einer der entsprechenden Messung zugeordneten räumlichen Position und einem Mittelpunkt eines dem Pixel entsprechenden räumlichen Bereichs umfasst.The method of claim 1, wherein calculating the weighted averages for each attribute comprises weighting the extracted new attribute values based on a Mahalanobis distance between a spatial position associated with the corresponding measurement and a midpoint of a spatial region corresponding to the pixel. Verfahren nach einem der vorangehenden Ansprüche, wobei die Attribute wenigstens eines aus einem Radarquerschnitt, einer Relativgeschwindigkeit und einer Fehlerkennungswahrscheinlichkeit umfassen.The method of any one of the preceding claims, wherein the attributes include at least one of a radar cross-section, a relative velocity, and a probability of detecting a misrecognition. Verfahren nach einem der vorangehenden Ansprüche, wobei das Vergleichen des Vorhersage-Radarbildes mit dem aktualisierten Radarbild (10b) wenigstens einen aus einem Austauschbarkeitstest und einem Martingaldifferenztest umfasst.The method of any one of the preceding claims, wherein comparing the prediction radar image with the updated radar image (10b) comprises at least one of an interchangeability test and a martingale difference test. Verfahren nach Anspruch 8, wobei das Vergleichen des Vorhersage-Radarbildes mit dem aktualisierten Radarbild (10b) ein Bestimmen wenigstens einer jeweiligen Zone, die eine Mehrzahl von Pixeln aufweist, für jedes des Vorhersage-Radarbildes und des aktualisierten Radarbildes (10b) und ein Anwenden wenigstens eines aus einem Austauschbarkeitstest und einem Martingaldifferenztest auf die entsprechenden Zonen umfasst.Method according to Claim 8 wherein comparing the prediction radar image with the updated radar image (10b) comprises determining at least one respective zone having a plurality of pixels for each of the prediction radar image and the updated radar image (10b) and applying at least one of an interchangeability test and a Martingaldifferenztest on the corresponding zones. Verfahren nach einem der Ansprüche 8 oder 9, wobei das Vergleichen des Vorhersage-Radarbildes mit dem aktualisierten Radarbild (10b) folgende Schritte umfasst: Bestimmen eines Fremdheitsmaßes, das einen Unterschied zwischen dem Vorhersage-Radarbild und dem aktualisierten Radarbild (10b) kennzeichnet, unter Verwendung eines Klassifikators; Prüfen auf Austauschbarkeit basierend auf dem Fremdheitsmaß; und Berechnen eines Martingalwertes basierend auf dem Austauschbarkeitstest.Method according to one of Claims 8 or 9 wherein comparing the prediction radar image with the updated radar image (10b) comprises the steps of: determining an extraneous measure indicative of a difference between the prediction radar image and the updated radar image (10b) using a classifier; Checking for interchangeability based on the degree of foreignness; and calculating a martingale value based on the interchangeability test. Verfahren nach Anspruch 10, wobei der Klassifikator basierend auf einer Support Vector Machine bestimmt wird, die basierend auf Lerndaten erzeugt wird, wobei der Klassifikator Distanzen zwischen dem aktualisierten Radarbild (10b) und/oder dem Vorhersage-Radarbild ausgehend von einer durch die Support Vector Machine erzeugten Hyperebene bestimmt.Method according to Claim 10 wherein the classifier is determined based on a support vector machine generated based on learning data, wherein the classifier determines distances between the updated radar image (10b) and / or the prediction radar image from a hyperplane generated by the support vector machine. Verfahren nach einem der vorangehenden Ansprüche, wobei, wenn eine Blockierung erkannt wurde, basierend auf dem Vergleich des Vorhersage-Radarbildes mit dem aktualisierten Radarbild (10b) ein Blockierungsbereich identifiziert wird.A method according to any one of the preceding claims, wherein, when a blockage has been detected, a blocking area is identified based on the comparison of the prediction radar image with the updated radar image (10b). Vorrichtung (1) zum Erkennen einer Blockierung einer Radarvorrichtung (5) basierend auf einem Radarbild (10a), das basierend auf durch die Radarvorrichtung (5) erfassten Radardaten erhalten wird, wobei das Radarbild (10a) eine Mehrzahl von Pixeln aufweist, wobei den Pixeln wenigstens ein Attribut zugeordnet ist, wobei die Vorrichtung (1) eine Recheneinheit (3) umfasst, die dazu ausgelegt ist, bei jedem Zyklus folgende Schritt auszuführen: Vorhersagen eines Vorhersage-Radarbildes unter Verwendung des Radarbildes (10a) des vorherigen Zyklus; Empfangen neuer Radardaten, die durch die Radarvorrichtung (5) erfasst werden; Zuordnen von Messdatenclustern zu den entsprechenden Pixeln des Radarbildes (10a) basierend auf den erfassten neuen Radardaten; Erzeugen eines aktualisierten Radarbildes (10b) durch Aktualisieren der Attribute der Pixel des Radarbildes (10a) basierend auf dem Messdatencluster, der dem jeweiligen Pixel zugeordnet ist; Vergleichen des Vorhersage-Radarbildes mit dem aktualisierten Radarbild (10b); und Erkennen, ob eine Blockierung der Radarvorrichtung (1) aufgetreten ist, basierend auf dem Vergleich des Vorhersage-Radarbildes und des aktualisierten Radarbildes (10b).A device (1) for detecting a blockage of a radar device (5) based on a radar image (10a) obtained based on radar data acquired by the radar device (5), the radar image (10a) comprising a plurality of pixels, the pixels at least one attribute is assigned, the device (1) comprising a computing unit (3) which is designed to carry out the following steps during each cycle: Predicting a prediction radar image using the radar image (10a) of the previous cycle; Receiving new radar data detected by the radar device (5); Associating measurement data clusters with the corresponding pixels of the radar image (10a) based on the acquired new radar data; Generating an updated radar image (10b) by updating the attributes of the pixels of the radar image (10a) based on the measurement data cluster associated with the respective pixel; Comparing the prediction radar image with the updated radar image (10b); and Detecting whether a blockage of the radar device (1) has occurred based on the comparison of the prediction radar image and the updated radar image (10b). Fahrerassistenzsystem (4) für ein Fahrzeug (6), umfassend: eine Radarvorrichtung (5), die dazu ausgelegt ist, Radardaten zu erzeugen; und eine Vorrichtung (1) nach Anspruch 13.A driver assistance system (4) for a vehicle (6), comprising: a radar device (5) adapted to generate radar data; and a device (1) according to Claim 13 , Fahrzeug (6), das ein Fahrerassistenzsystem (4) nach Anspruch 14 umfasst.Vehicle (6), the a driver assistance system (4) after Claim 14 includes.
DE102017220243.2A 2017-11-14 2017-11-14 METHOD AND DEVICE FOR DETECTING A BLOCKING OF A RADAR DEVICE, DRIVER ASSISTANCE SYSTEM AND VEHICLE Active DE102017220243B3 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102017220243.2A DE102017220243B3 (en) 2017-11-14 2017-11-14 METHOD AND DEVICE FOR DETECTING A BLOCKING OF A RADAR DEVICE, DRIVER ASSISTANCE SYSTEM AND VEHICLE

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102017220243.2A DE102017220243B3 (en) 2017-11-14 2017-11-14 METHOD AND DEVICE FOR DETECTING A BLOCKING OF A RADAR DEVICE, DRIVER ASSISTANCE SYSTEM AND VEHICLE

Publications (1)

Publication Number Publication Date
DE102017220243B3 true DE102017220243B3 (en) 2019-02-21

Family

ID=65235370

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017220243.2A Active DE102017220243B3 (en) 2017-11-14 2017-11-14 METHOD AND DEVICE FOR DETECTING A BLOCKING OF A RADAR DEVICE, DRIVER ASSISTANCE SYSTEM AND VEHICLE

Country Status (1)

Country Link
DE (1) DE102017220243B3 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3767332A1 (en) * 2019-07-18 2021-01-20 Aptiv Technologies Limited Methods and systems for radar object detection
DE102020111954A1 (en) 2020-05-04 2021-11-04 HELLA GmbH & Co. KGaA Method for detecting a blockage in a sensor system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004006119A2 (en) 2002-07-05 2004-01-15 Qinetiq Limited Anomaly detection system
US20090243912A1 (en) 2008-03-31 2009-10-01 Lohmeier Stephen P Automotive Radar Sensor Blockage Detection System and Related Techniques
US20170269196A1 (en) * 2016-03-17 2017-09-21 Valeo Radar Systems, Inc. System and method for detecting blockage in an automotive radar

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004006119A2 (en) 2002-07-05 2004-01-15 Qinetiq Limited Anomaly detection system
US20090243912A1 (en) 2008-03-31 2009-10-01 Lohmeier Stephen P Automotive Radar Sensor Blockage Detection System and Related Techniques
US20170269196A1 (en) * 2016-03-17 2017-09-21 Valeo Radar Systems, Inc. System and method for detecting blockage in an automotive radar

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3767332A1 (en) * 2019-07-18 2021-01-20 Aptiv Technologies Limited Methods and systems for radar object detection
US11604272B2 (en) 2019-07-18 2023-03-14 Aptiv Technologies Limited Methods and systems for object detection
DE102020111954A1 (en) 2020-05-04 2021-11-04 HELLA GmbH & Co. KGaA Method for detecting a blockage in a sensor system

Similar Documents

Publication Publication Date Title
DE602005003926T2 (en) SYSTEM AND METHOD FOR RECOGNIZING AN INDICATIVE VEHICLE FROM DYNAMIC BACKGROUND USING ROBUST INFORMATION FUSION
WO2018177484A1 (en) Method and system for predicting sensor signals from a vehicle
DE102018128289B4 (en) METHOD AND DEVICE FOR AUTONOMOUS SYSTEM PERFORMANCE AND CLASSIFICATION
WO2019068291A1 (en) Testing a neural network
EP3646184B1 (en) Method, apparatus and computer-readable storage medium having instructions for cancelling a redundancy of two or more redundant modules
DE102017220243B3 (en) METHOD AND DEVICE FOR DETECTING A BLOCKING OF A RADAR DEVICE, DRIVER ASSISTANCE SYSTEM AND VEHICLE
DE102019209462A1 (en) Method for determining a confidence value of a detected object
DE102017006260A1 (en) Method for determining detection properties of at least one environmental sensor in a vehicle and vehicle, designed to carry out such a method
DE112021004200T5 (en) object detection device
DE102019206720B4 (en) Monitoring of an AI module of a driving function of a vehicle
EP4165484A1 (en) Monitoring device and method for detecting anomalies
EP2549294B1 (en) Method for detecting and confirming critical driving situations
DE102017005671A1 (en) Method for determining misdetections of a sensor system of a motor vehicle
DE102022201679A1 (en) Method and device for training a neural network
DE102017219269A1 (en) Classification with automatic selection of promising learning data
DE102017211816A1 (en) METHOD FOR CALCULATING A RADAR SPACING WIDTH AND A DEVICE FOR CARRYING OUT THE METHOD
WO2021089591A1 (en) Method for training an artificial neural network, computer program, storage medium, device, artificial neural network and application of the artificial neural network
DE102021202813A1 (en) Method, device and computer program for an uncertainty assessment of an image classification
DE102019209463A1 (en) Method for determining the trust value of an object of a class
DE102021208349B3 (en) Method and sensor system for merging sensor data and vehicle with a sensor system for merging sensor data
DE102019200828A1 (en) Main object selection for an assistance function or automated driving function of a driver assistance or driving system of a motor vehicle
DE102022209403A1 (en) Method for checking the performance of a prediction task by a neural network
DE60126708T2 (en) Method and system for industrial operator guidance by means of predictive alarm detection
DE102021133977A1 (en) Method and system for classifying virtual test scenarios and training methods
EP4202779A1 (en) Method and system for classification of scenarios of a virtual test and training method

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R081 Change of applicant/patentee

Owner name: CONTINENTAL AUTONOMOUS MOBILITY GERMANY GMBH, DE

Free format text: FORMER OWNER: CONTINENTAL AUTOMOTIVE GMBH, 30165 HANNOVER, DE