DE112017008078B4 - Fehlererfassungsvorrichtung, fehlererfassungsverfahren und fehlererfassungsprogramm - Google Patents

Fehlererfassungsvorrichtung, fehlererfassungsverfahren und fehlererfassungsprogramm Download PDF

Info

Publication number
DE112017008078B4
DE112017008078B4 DE112017008078.9T DE112017008078T DE112017008078B4 DE 112017008078 B4 DE112017008078 B4 DE 112017008078B4 DE 112017008078 T DE112017008078 T DE 112017008078T DE 112017008078 B4 DE112017008078 B4 DE 112017008078B4
Authority
DE
Germany
Prior art keywords
data
sensor
acquired
identified
peripheral
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE112017008078.9T
Other languages
English (en)
Other versions
DE112017008078T5 (de
Inventor
Naoyuki Tsushima
Masahiko Tanimoto
Masahiro Abukawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of DE112017008078T5 publication Critical patent/DE112017008078T5/de
Application granted granted Critical
Publication of DE112017008078B4 publication Critical patent/DE112017008078B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • B60W2050/021Means for detecting failure or malfunction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • B60W2050/0215Sensor drifts or sensor failures
    • B60W2420/408
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • G01S2007/4975Means for monitoring or calibrating of sensor obstruction by, e.g. dirt- or ice-coating, e.g. by reflection measurement on front-screen
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • G01S7/4039Means for monitoring or calibrating of parts of a radar system of sensor or antenna obstruction, e.g. dirt- or ice-coating

Abstract

Fehlererfassungsvorrichtung (10), umfassend:eine Erfassungsdatenabrufeinheit (21), um erfasste Daten abzurufen, das heißt Daten eines Sensors (31), die während einer in der Vergangenheit liegenden Bezugsperiode von einem an einem beweglichen Körper montierten Sensor (31) ausgegeben wurden, wobei die Daten des Sensors (31) Daten sind, aus denen eine Position, eine Bewegungsrichtung und eine Bewegungsgeschwindigkeit eines Objekts, das im Umfeld des beweglichen Körpers vorhanden ist, in Bezug auf den beweglichen Körper als erfasster Inhalt identifizierbar sind;eine Umfelddatenabrufeinheit (22), um Umfelddaten abzurufen, die von dem peripheren Körper, der im Umfeld des beweglichen Körpers vorhanden ist, erfasst werden, wobei die Umfelddaten Daten sind, aus denen die Position, die Bewegungsrichtung und die Bewegungsgeschwindigkeit des peripheren Körpers als Umfeldinhalt identifizierbar sind; undeine Fehlerbestimmungseinheit (23), um auf Basis dessen, ob oder ob nicht die von der Erfassungsdatenabrufeinheit (21) abgerufenen erfassten Daten erfasste Daten einschließen, aus denen ein erfasster Inhalt so identifiziert wird, dass ein Gesamtwert in einem Bezugsbereich liegt, zu bestimmen, ob oder ob nicht ein Fehler in dem Sensor (31) vorliegt, wobei der Gesamtwert durch Gewichten und dann Addieren sowohl einer Positionsdifferenz als auch einer Bewegungsrichtungsdifferenz und einer Bewegungsgeschwindigkeitsdifferenz, die aus den erfassten Daten und den Umfelddaten identifiziert werden, berechnet wird.

Description

  • Gebiet der Technik
  • Die vorliegende Erfindung betrifft eine Technologie zur Erfassung eines Fehlers in einem Sensor, der an einem beweglichen Körper montiert ist.
  • Stand der Technik
  • Ein wachsendes Sicherheitsbewusstein und ein Streben nach Komfort haben dazu geführt, dass immer mehr Automobile mit einer Fahrunterstützungsfunktion ausgestattet werden, wie etwa einer automatischen Notfallbremsfunktion. Um die Fahrunterstützungsfunktion zu verwirklichen, gibt es einen Fall, bei dem ein Sensor verwendet wird, der Funkwellen oder Licht emittiert, wie etwa ein Millimeterwellenradar oder LIDAR (Light Detection and Ranging).
  • Falls ein Sensor zur Verwirklichung einer Fahrunterstützungsfunktion vollständig ausfällt, kann die Fahrunterstützungsfunktion nicht verwendet werden. Falls jedoch nur in einem Teil eines Erfassungsbereichs des Sensors eine Anomalie auftritt, wie etwa in einem Fall, bei dem Schmutz oder Staub am Sensor haftet, besteht die Möglichkeit, dass ein Erfassungsergebnis erhalten wird, das anzeigt, dass kein Hindernis vorhanden ist, obwohl eigentlich ein Hindernis vorhanden ist. Falls ein solches Erfassungsergebnis erhalten wird, besteht die Möglichkeit, dass die Fahrunterstützungsfunktion nicht richtig funktioniert.
  • Das Patentdokument 1 beschreibt eine Erfassung einer Anomalie eines Sensors durch Vergleichen eines Modells eines normalen Abtastergebnisses, das auf Basis früherer Fahrdaten erzeugt wurde, mit einem tatsächlichen Abtastergebnis.
  • Das Patentdokument 2 beschreibt ein System zur Erfassung einer Änderung der Montageposition oder des Montagewinkels eines Sensors durch einen Vergleich der erfassten Position eines entgegenkommenden Fahrzeuges mit einer von diesem Fahrzeug selbst bestimmten Eigenposition, die durch eine Kommunikationsvorrichtung empfangen wird.
  • Das Patentdokument 3 beschreibt ein System und Verfahren zur Erkennung einer Fehlfunktion einer Radareinheit, in dem an einem festgelegten Ort mit bekannter Radarwellen-Reflexionsintensität diese mit der tatsächlich empfangenen Signalstärke verglichen wird.
  • Das Patentdokument 4 beschreibt eine Vorrichtung zur Erkennung einer Verschmutzung eines Sensors, in der ein tatsächliches Messergebnis des Sensors mit einem virtuellen Messergebnis, das ein Messergebnis angibt, das der Sensor erfassen sollte, verglichen wird und auf Basis dieses Vergleichs auf den Verschmutzungszustand des Sensors geschlossen wird.
  • Liste der Entgegenhaltungen
  • Patentdokumente
    • Patentdokument 1: JP 2009-146086 A
    • Patentdokument 2: JP 2016-197081 A
    • Patentdokument 3: JP 2007-178310 A
    • Patentdokument 4: JP 2016-162204 A
  • Kurzfassung der Erfindung
  • Technisches Problem
  • Auch mit der im Patentdokument 1 beschriebenen Technologie kann eine Anomalie eines Sensors nicht erfasst werden, außer in einer Situation, die einem Modell ähnelt, das vorab erzeugt wurde.
  • Es ist ein Ziel der vorliegenden Erfindung, die Erfassung der Anomalie des Sensors zu ermöglichen, ohne zuvor das Modell erzeugen zu müssen.
  • Lösung des Problems
  • Eine Fehlererfassungsvorrichtung gemäß der vorliegenden Erfindung weist auf:
    • eine Erfassungsdatenabrufeinheit, um erfasste Daten abzurufen, das heißt Sensordaten, die während einer in der Vergangenheit liegenden Bezugsperiode von einem an einem beweglichen Körper montierten Sensor ausgegeben wurden;
    • eine Umfelddatenabrufeinheit, um Umfelddaten abzurufen, die von einem peripheren Körper, der im Umfeld des beweglichen Körpers vorhanden ist, erfasst werden; und
    • eine Fehlerbestimmungseinheit, um auf Basis dessen, ob oder ob nicht die von der Erfassungsdatenabrufeinheit abgerufenen erfassten Daten erfasste Daten einschließen, die einen erfassten Inhalt identifizieren, bei dem eine Differenz in Bezug auf einen Umfeldinhalt innerhalb eines Bezugsbereichs liegt, zu bestimmen, ob oder ob nicht ein Fehler in dem Sensor vorliegt, wobei der Umfeldinhalt aus den Umfelddaten identifiziert wird, die von der Umfelddatenabrufeinheit abgerufen werden.
  • Vorteilhafte Wirkungen der Erfindung
  • Die vorliegende Erfindung bestimmt, ob oder ob nicht ein Fehler in einem Sensor vorliegt auf Basis dessen, ob oder ob nicht erfasste Daten für eine in der Vergangenheit liegende Bezugsperiode erfasste Daten einschließen, die einen erfassten Inhalt identifizieren, bei dem die Differenz in Bezug auf einen Umfeldinhalt, der aus von einem peripheren Körper erfassten Umfelddaten identifiziert wird, innerhalb eines Bezugsbereichs liegt. Auf diese Weise ist es möglich, eine Anomalie des Sensors zu erfassen, ohne vorab ein Modell erzeugen zu müssen.
  • Figurenliste
    • 1 ist eine Konfigurationsdarstellung einer Fehlererfassungsvorrichtung 10 gemäß einer Ausführungsform 1;
    • 2 ist ein Flussdiagramm, das ein Beispiel für den Betrieb der Fehlererfassungsvorrichtung 10 gemäß der Ausführungsform 1 darstellt;
    • 3 ist eine Skizze, die ein Beispiel für eine Situation eines beweglichen Körpers 100 und von einer Umgebung gemäß der Ausführungsform 1 darstellt;
    • 4 ist eine erklärende Skizze einer Abtastung in einer Situation von 3 gemäß der Ausführungsform 1;
    • 5 ist eine erklärende Skizze von erfassten Daten, die in einer Situation von 4 erfasst werden, gemäß der Ausführungsform 1;
    • 6 ist eine erklärende Skizze von Umfelddaten gemäß der Ausführungsform 1;
    • 7 ist ein Flussdiagramm eines Fehlerbestimmungsprozesses gemäß der Ausführungsform 1;
    • 8 ist eine erklärende Skizze eines Teilbereichs 58 gemäß der Ausführungsform 1;
    • 9 ist eine Skizze, die ein Beispiel für einen Fall darstellt, in dem bestimmt wird, dass ein Betrieb eines Sensors 31 normal ist, gemäß der Ausführungsform 1;
    • 10 ist eine Skizze, die ein Beispiel für einen Fall darstellt, in dem bestimmt wird, dass ein Betrieb eines Sensors 31 anomal ist, gemäß der Ausführungsform 1;
    • 11 ist eine Konfigurationsdarstellung einer Fehlererfassungsvorrichtung 10 gemäß einer Modifikation 2; und
    • 12 ist eine erklärende Skizze einer Korrektur einer Position gemäß einer Ausführungsform 2.
  • Beschreibung von Ausführungsformen
  • Ausführungsform 1.
  • *** Konfigurationsbeschreibung ***
  • Eine Konfiguration einer Fehlererfassungsvorrichtung 10 gemäß Ausführungsform 1 wird nun unter Bezugnahme auf 1 beschrieben.
  • 1 stellt einen Zustand dar, in dem die Fehlererfassungsvorrichtung 10 an einem beweglichen Körper 100 montiert ist. Der bewegliche Körper 100 ist ein Fahrzeug, ein Schiff, ein Zug oder dergleichen. In der Ausführungsform 1 wird die Beschreibung aufgrund der Annahme gegeben, dass der bewegliche Körper 100 ein Fahrzeug ist.
  • Man beachte, dass die Fehlererfassungsvorrichtung 10 in einer Form implementiert werden kann, die in den beweglichen Körper 100 oder irgendeine andere von den hierin dargestellten Komponenten integriert ist oder von diesen untrennbar ist. Die Fehlererfassungsvorrichtung 10 kann auch in einer Form implementiert werden, die abnehmbar oder trennbar ist.
  • Die Fehlererfassungsvorrichtung 10 ist ein Computer.
  • Die Fehlererfassungsvorrichtung 10 weist als Hardware einen Prozessor 11, einen Memory bzw. Arbeitsspeicher 12, einen Storage bzw. Datenspeicher 13 und eine Kommunikationsschnittstelle 14 auf. Der Prozessor 11 ist über eine Signalleitung mit anderen Hardware-Komponenten verbunden und steuert diese anderen Hardware-Komponenten.
  • Der Prozessor 11 ist eine integrierte Schaltung (IC), die eine arithmetische Verarbeitung durchführt. Der Prozessor 11 umfasst ein Register, das Befehle und Informationen speichert, eine periphere Schaltung und dergleichen. Als konkretes Beispiel ist der Prozessor 11 eine zentrale Verarbeitungseinheit (CPU), ein Digitalsignalprozessor (DSP) oder eine Grafikverarbeitungseinheit (GPU).
  • Der Arbeitsspeicher 12 ist eine Speichervorrichtung, in der Daten vorübergehend gespeichert werden. Als konkretes Beispiel ist der Arbeitsspeicher 12 ein statischer Random-Access Memory (SRAM) oder ein dynamischer Random-Access Memory (DRAM).
  • Der Datenspeicher 13 ist eine Speichervorrichtung, in der Daten gespeichert werden. Als konkretes Beispiel ist der Datenspeicher 13 ein ROM, ein Flash-Speicher oder ein Festplattenlaufwerk (HDD). Der Datenspeicher 13 kann auch ein tragbares Speichermedium sein, wie etwa eine Secure-Digital-Speicherkarte (SD, eingetragene Marke), ein CompactFlash (CF), ein NAND-Flash, eine flexible Scheibe, eine optische Scheibe, eine Compact Disk, eine Blu-ray-Scheibe (eingetragene Marke) oder eine Digital Versatile Disk (DVD).
  • Die Kommunikationsschnittstelle 14 ist eine Schnittstelle zum Kommunizieren mit einer externen Vorrichtung. In der Ausführungsform 1 ist die Kommunikationsschnittstelle 14 eine Schnittstelle zum Kommunizieren über ein Netz 30, wie etwa ein Controller Area Network (CAN) oder ein Fahrzeug-Ethernet (eingetragene Marke), das im beweglichen Körper 100 installiert ist. Als konkretes Beispiel ist die Kommunikationsschnittstelle 14 Teil eines Controller Area Network (CAN), Ethernet (eingetragene Marke), RS232C oder Universal Serial Bus (USB).
  • In der Ausführungsform 1 ist die Kommunikationsschnittstelle 14 über das Netz 30 mit einem Sensor 31, einer Kartenspeichervorrichtung 32, einer Anzeigevorrichtung 33 und einer Kommunikationsvorrichtung 34 verbunden.
  • Der Sensor 31 ist eine Vorrichtung, wie etwa ein Millimeterwellenradar oder LIDAR, die eine Funkwelle, Töne oder dergleichen emittiert, deren Reflexion durch ein Objekt erfasst und dadurch eine Position und eine Geschwindigkeit des Objekts identifiziert.
  • Die Kartenspeichervorrichtung 32 ist eine Datenspeichervorrichtung, wie etwa ein ROM, ein Flash-Speicher oder ein HDD, in der Kartendaten gespeichert werden. Die Kartendaten geben eine Straßenbegrenzung und dergleichen an.
  • Die Anzeigevorrichtung 33 ist eine Vorrichtung, wie etwa eine Flüssigkristallanzeige (LCD), die Informationen anzeigt. Die Anzeigevorrichtung 33 ist in dem beweglichen Körper 100 so installiert, dass sie für eine Person in dem beweglichen Körper 100, wie etwa einen Fahrer, sichtbar ist.
  • Die Kommunikationsvorrichtung 34 ist eine Vorrichtung, die mit einem peripheren Körper 200, der sich im Umfeld des beweglichen Körpers 100 befindet, kommuniziert. Der periphere Körper 200 ist ein Fahrzeug, ein Schiff oder dergleichen, das sich im Umfeld des beweglichen Körpers 100 fortbewegt. Oder der periphere Körper 200 ist ein Straßenrandsystem oder dergleichen, das im Umfeld des beweglichen Körpers 100 vorhanden ist.
  • Die Fehlererfassungsvorrichtung 10 weist als funktionelle Komponenten eine Erfassungsdatenabrufeinheit 21, eine Umfelddatenabrufeinheit 22, eine Fehlerbestimmungseinheit 23 und eine Mitteilungseinheit 24 auf. Funktionen der funktionellen Komponenten der Fehlererfassungsvorrichtung 10 werden durch Software verwirklicht.
  • Der Datenspeicher 13 speichert ein Programm, das die Funktionen der funktionellen Komponenten der Fehlererfassungsvorrichtung 10 verwirklicht. Dieses Programm wird vom Prozessor 11 in den Arbeitsspeicher 12 geladen und vom Prozessor 11 ausgeführt. Auf diese Weise werden die Funktionen der funktionellen Komponenten der Fehlererfassungsvorrichtung 10 verwirklicht.
  • In 1 ist nur ein Prozessor 11 dargestellt. Jedoch kann die Fehlererfassungsvorrichtung 10 mehrere Prozessoren als Alternative zum Prozessor 11 aufweisen. Die mehreren Prozessoren teilen sich die Aufgabe, das Programm auszuführen, das die Funktionen der funktionellen Komponenten der Fehlererfassungsvorrichtung 10 verwirklicht.
  • *** Beschreibung des Betriebs ***
  • Nun wird ein Betrieb der Fehlererfassungsvorrichtung 10 gemäß Ausführungsform 1 unter Bezugnahme auf 2 bis 10 beschrieben.
  • Der Betrieb der Positionsbestimmungsvorrichtung 10 gemäß der Ausführungsform 1 entspricht einem Fehlererfassungsverfahren gemäß der Ausführungsform 1. Und der Betrieb der Fehlererfassungsvorrichtung 10 gemäß der Ausführungsform 1 entspricht einem Fehlererfassungsprogramm gemäß der Ausführungsform 1.
  • (Schritt S1 von Fig. 2: Erfassungsdatenabrufprozess)
  • Die Erfassungsdatenabrufeinheit 21 ruft erfasste Daten, das heißt Sensordaten, die während einer in der Vergangenheit liegenden Bezugsperiode von dem am beweglichen Körper 100 montierten Sensor 31 ausgegeben wurden, über die Kommunikationsschnittstelle 14 ab. Die erfassten Daten sind Daten, aus denen eine relative Position, eine relative Bewegungsrichtung und eine relative Bewegungsgeschwindigkeit des beweglichen Körpers 100 als erfasster Inhalt identifizierbar sind.
  • Die Erfassungsdatenabrufeinheit 21 identifiziert auf Basis der erfassten Daten für jedes Objekt die relative Position, die relative Bewegungsrichtung und die relative Bewegungsgeschwindigkeit. Die Erfassungsdatenabrufeinheit 21 wandelt die relative Position jedes erfassten Objekts in eine Position in einem absoluten Koordinatensystem um. Genauer empfängt die Erfassungsdatenabrufeinheit 21 ein Positionsbestimmungssignal von einem Satelliten, wodurch sie eine Position des beweglichen Körpers 100 in dem absoluten Koordinatensystem identifiziert, und wandelt dann auf Basis der identifizierten Position die relative Position jedes erfassten Objekts in die Position in dem absoluten Koordinatensystem um.
  • Die erfassten Daten werden konkret unter Bezugnahme auf 3 bis 5 beschrieben.
  • In 3 bewegt sich der bewegliche Körper 100 mit einer Geschwindigkeit v1 fort und der periphere Körper 200 bewegt sich mit einer Geschwindigkeit v2 auf einer Gegenfahrbahn 52 zu einer Fahrbahn 51, auf der sich der bewegliche Körper 100 fortbewegt, fort. Und außerhalb einer Straße 53 gibt es einen Briefkasten 54 und einen Baum 55. Der Sensor 31 ist eine Art von Sensor, wie etwa ein Millimeterwellenradar oder LIDAR, der durch Emittieren einer Funkwelle oder eines Lasers in Richtung eines Zielobjekts und dadurch, dass die Funkwelle oder der Laser reflektiert wird, erfasst, ob oder ob nicht ein Hindernis vorhanden ist. In einem Fall von 3 emittiert daher der Sensor 31, wie in 4 dargestellt ist, die Funkwelle oder den Laser radial in einen Bereich eines Winkels X vor dem beweglichen Körper 100 und empfängt eine reflektierte Welle, die eine Reflexion der Funkwelle oder des Lasers durch das innerhalb eines Abtastbereichs 56 vorhandene erfasste Objekt ist. In 4 empfängt der Sensor 31 die reflektierte Welle, das heißt die Reflexion der Funkwelle oder des Lasers, an einem Reflexionspunkt 57, der durch „x“ angegeben ist. Wegen eines Aufbaus des Sensors 31 befindet sich der Reflexionspunkt 57 innerhalb eines Bereichs, der vom beweglichen Körper 100 aus sichtbar ist, und auf der Rückseite des erfassten Objekts, die vom beweglichen Körper 100 aus nicht sichtbar ist, befindet sich kein Reflexionspunkt 57.
  • Die Erfassungsdatenabrufeinheit 21 ruft die reflektierte Welle, das heißt die Reflexion am Reflexionspunkt 57, als die erfassten Daten ab. Auf Basis einer Zeit ab einer Emission der Funkwelle oder des Lasers bis zum Empfang der reflektierten Welle und einer Richtung einer Emission der Funkwelle oder des Lasers ist die Erfassungsdatenabrufeinheit 21 in der Lage, eine Position des Reflexionspunkts 57 relativ zum beweglichen Körper 100 zu identifizieren.
  • Ebenso ist die Erfassungsdatenabrufeinheit 21 in der Lage, durch Analysieren und Differenzieren einer Positionsänderung des Reflexionspunkts 57 in zeitlicher Abfolge oder durch Analysieren einer Doppler-Frequenz-Änderung der reflektierten Welle eine Geschwindigkeit und eine Bewegungsrichtung des beweglichen Körpers 100 und des erfassten Objekts relativ zueinander zu identifizieren. Da sich in dem Fall von 4 der Briefkasten 54 und der Baum 55 nicht bewegen, sehen die Reflexionspunkte 57 am Briefkasten 54 und an dem Baum 55, wie in 5 dargestellt, so aus, als würden sie sich mit einer Geschwindigkeit v1, die derjenigen des beweglichen Körpers 100 gleich ist, zum beweglichen Körper 100 hin bewegen. Und ein Reflexionspunkt 57 am peripheren Körper 200, der ein bewegliches Objekt ist, sieht aus, als würde er sich mit einer Geschwindigkeit v1 + v2, einer kombinierten Geschwindigkeit aus den Geschwindigkeiten des beweglichen Körpers 100 und des peripheren Körpers 200, zum beweglichen Körper 100 hin bewegen.
  • (Schritt S2 von Fig. 2: Umfelddatenabrufprozess)
  • Die Umfelddatenabrufeinheit 22 ruft Umfelddaten, die vom peripheren Körper 200 erfasst werden, der sich im Umfeld des beweglichen Körpers 100 befindet, über die Kommunikationsschnittstelle 14 ab. Die Umfelddaten sind Daten, aus denen eine Position, eine Bewegungsrichtung und eine Bewegungsgeschwindigkeit des peripheren Körpers 200 als erfasster Inhalt identifizierbar sind. Hierbei wird angenommen, dass die Umfelddaten Daten sind, welche die Position, die Bewegungsrichtung und die Bewegungsgeschwindigkeit des peripheren Körpers 200 angeben.
  • Die Umfelddaten werden konkret unter Bezugnahme auf 6 beschrieben.
  • 6 stellt einen Fall dar, in dem die Umfelddatenabrufeinheit 22 die von dem in 3 dargestellten peripheren Körper 200 erfassten Umfelddaten abruft.
  • Der periphere Körper 200 ist auch in der Lage, durch einen Sensor, der am peripheren Körper 200 montiert ist, die Position, die Bewegungsrichtung und die Bewegungsgeschwindigkeit des peripheren Körpers 200 zu identifizieren. Zum Beispiel empfängt der periphere Körper 200 ein Positionsbestimmungssignal von einem Satelliten und identifiziert dadurch die Position. Ebenso identifiziert der periphere Körper 200 durch Analysieren und Differenzieren einer Änderung der Position in zeitlicher Abfolge die Bewegungsrichtung und die Bewegungsgeschwindigkeit. Der periphere Körper 200 sendet die Umfelddaten, welche die identifizierte Position, Bewegungsrichtung und Bewegungsgeschwindigkeit des peripheren Körpers 200 angeben, über eine Funkkommunikation an den beweglichen Körper 100.
  • Die Funkkommunikation ist zum Beispiel eine 802.11p-Kommunikation. Jedoch kann die Funkkommunikation jedes andere Schema sein, solange eine Übermittlung der Umfelddaten ermöglicht wird.
  • Falls der periphere Körper 200 nicht in der Lage ist, die Bewegungsrichtung und die Bewegungsgeschwindigkeit zu identifizieren, sendet der periphere Körper 200 Umfelddaten, welche die Position angeben, über die Funkkommunikation an den beweglichen Körper 100. In diesem Fall identifiziert die Umfelddatenabrufeinheit 22 durch Analysieren und Differenzieren einer Änderung der durch die gesendeten Umfelddaten ausgegebenen Position des peripheren Körpers 200 in zeitlicher Abfolge die Bewegungsrichtung und die Bewegungsgeschwindigkeit.
  • (Schritt S3 von Fig. 2: Fehlerbestimmungsprozess)
  • Die Fehlerbestimmungseinheit 23 bestimmt, ob oder ob nicht die in Schritt S1 abgerufenen erfassten Daten erfasste Daten einschließen, aus denen ein erfasster Inhalt identifiziert werden kann, für den eine Differenz in Bezug auf den Umfeldinhalt innerhalb eines Bezugsbereichs liegt, wobei der Umfeldinhalt aus den in Schritt S2 abgerufenen Umfelddaten identifiziert wird. Falls innerhalb, bestimmt die Fehlerbestimmungseinheit 23, dass kein Fehler im Sensor 31 vorliegt, und falls nicht innerhalb, bestimmt sie, dass ein Fehler im Sensor 31 vorliegt.
  • Der Fehlerbestimmungsprozess gemäß Ausführungsform 1 (Schritt S3 in 2) wird unter Bezugnahme auf 7 beschrieben.
  • Die Fehlerbestimmungseinheit 23 führt die folgenden Prozesse der Schritte S31 bis S34 mit jedem Teilbereich 58, das heißt einem Teilbereich des Abtastbereichs 56, als Ziel durch.
  • Wie in 8 dargestellt ist, ist der Teilbereich 58 ein Bereich des Abtastbereichs 56, der in einen Sektor mit jeweils beliebigem Winkel geteilt ist, dessen Mittelpunkt am Sensor 31 liegt. In 8 ist der Abtastbereich 56 in zwei Teilbereiche 58, einen Teilbereich 58 mit einem Winkel Y und einen Teilbereich 58 mit einem Winkel Z, geteilt. Man beachte, dass die Winkel Y und Z gleich sein können oder verschieden sein können.
  • (Schritt 31 von Fig. 7: Datenbestimmungsprozess)
  • Die Fehlerbestimmungseinheit 23 bestimmt, ob oder ob nicht Umfelddaten vorhanden sind, aus denen sich eine Position identifizieren lässt, die innerhalb eines als Ziel genommenen Teilbereichs 58 liegt.
  • Falls ja, macht die Fehlerbestimmungseinheit 23 mit dem Prozess bei Schritt S32 weiter. Falls dagegen nein, macht die Fehlerbestimmungseinheit 23 mit dem Prozess bei Schritt S33 weiter.
  • (Schritt 32 von Fig. 7: Objektbestimmungsprozess)
  • Die Fehlerbestimmungseinheit 23 bestimmt, ob oder ob nicht die erfassten Daten erfasste Daten einschließen, aus denen ein erfasster Inhalt so identifiziert werden kann, dass sein Gesamtwert in einem Bezugsbereich liegt, wobei der Gesamtwert durch Gewichten und dann Addieren sowohl einer Positionsdifferenz als auch einer Bewegungsrichtungsdifferenz und einer Bewegungsgeschwindigkeitsdifferenz, die aus den erfassten Daten und den peripheren Daten identifiziert werden, berechnet wird.
  • Konkret berechnet die Fehlerbestimmungseinheit 23, die jedes erfasste Objekt zum Ziel nimmt, TOTALdiff für das zum Ziel genommene erfasste Objekt und die Umfelddaten, wie in Formel 1 dargestellt ist. LATdiff = | LATe LATo | LONdiff = | LONe LONo | Vdiff = | Ve Vo | DIRdiff | DIR DIRo |
    Figure DE112017008078B4_0001
    TOTALdiff = α × LATdiff + β × LONdiff + γ × Vdiff + δ × DIRdiff
    Figure DE112017008078B4_0002
  • Hierbei wird angenommen, dass Positionen eines erfassten Objekts und des peripheren Körpers 200 durch Breitengrad und Längengrad angegeben werden. LATe ist der Breitengrad des erfassten Objekts und LATo ist der Breitengrad des peripheren Körpers 200. LONe ist der Längengrad des erfassten Objekts und LONo ist der Längengrad des peripheren Körpers 200. Ve ist eine Bewegungsgeschwindigkeit des erfassten Objekts und Vo ist eine Bewegungsgeschwindigkeit des peripheren Körpers 200. DIRe ist eine Bewegungsrichtung des erfassten Objekts und DIRo ist eine Bewegungsrichtung des peripheren Körpers 200. α, β, γ und 6 sind Gewichtungskoeffizienten.
  • Die Fehlerbestimmungseinheit 23 bestimmt, ob oder ob nicht ein erfasstes Objekt vorhanden ist, für das die berechnete TOTALdiff innerhalb eines Bezugsbereichs liegt. Anders ausgedrückt bestimmt die Fehlerbestimmungseinheit 23, ob oder ob nicht ein erfasstes Objekt vorhanden ist, für das gilt: TOTALdiff ≤ Bezugsbereich TOTALth.
  • Falls ja, macht die Fehlerbestimmungseinheit 23 mit dem Prozess bei Schritt S33 weiter. Falls dagegen nein, macht die Fehlerbestimmungseinheit 23 mit dem Prozess bei Schritt S34 weiter.
  • (Schritt S33 von Fig. 7: Normalitätsbestimmungsprozess)
  • Die Fehlerbestimmungseinheit 23 bestimmt, dass der Betrieb des Sensors 31 für den zum Ziel genommenen Teilbereich 58 normal ist.
  • Anders ausgedrückt wird für den Teilbereich 58, für den bestimmt wurde, dass keine Umfelddaten vorhanden sind, aus denen in Schritt S31 die Position bestimmt werden kann, die in dem zum Ziel genommenen Teilbereich 58, wie etwa in dem Bereich 1 in 9, liegt, bestimmt, dass der Betrieb des Sensors 31 normal ist. Außerdem wird für den Teilbereich 58, wie etwa den Bereich 2 in 9, für den in Schritt S32 bestimmt wurde, dass das erfasste Objekt vorhanden ist, für das gilt: TOTALdiff ≤ Bezugsbereich TOTALth, bestimmt, dass der Betrieb des Sensors 31 normal ist.
  • (Schritt S34 von Fig. 7: Anomaliebestimmungsprozess)
  • Die Fehlerbestimmungseinheit 23 bestimmt, dass der Betrieb des Sensors 31 für den zum Ziel genommenen Teilbereich 58 anomal ist.
  • Außerdem wird für den Teilbereich 58, wie etwa den Bereich 2 in 10, für den in Schritt S32 bestimmt wurde, dass kein erfasstes Objekt vorhanden ist, für das gilt: TOTALdiff ≤ Bezugsbereich TOTALth, bestimmt, dass der Betrieb des Sensors 31 anomal ist.
  • (Schritt 4 von Fig. 2: Mitteilungsprozess)
  • Die Mitteilungseinheit 24 gibt über die Kommunikationsschnittstelle 14 ein in Schritt S33 oder S34 bestimmtes Ergebnis an die Anzeigeeinheit 33 aus und lässt das Ergebnis anzeigen. Falls beispielsweise in Schritt S34 bestimmt wurde, dass eine Anomalie vorliegt, zeigt die Mitteilungseinheit 24 den Teilbereich 58 oder dergleichen, für den bestimmt wurde, dass eine Anomalie vorliegt, mit Grafik oder Text an. Auf diese Weise wird einer Person in dem beweglichen Körper 100, beispielsweise einem Fahrer, der Zustand des Sensors 31 mitgeteilt.
  • Wenn der Sensor 31 für eine Fahrunterstützungsfunktion, wie etwa eine automatische Bremsfunktion, verwendet wird, kann die Mitteilungseinheit 24 auch einer Vorrichtung, welche die Funktion des Vorhandenseins oder Nichtvorhandenseins der Anomalie des Sensors 31 verwirklicht, Mitteilung machen. Auf diese Weise können Maßnahmen, wie etwa das vollständige oder teilweise Unterbrechen der Fahrunterstützungsfunktion, ergriffen werden, falls die Anomalie im Sensor 31 vorliegt.
  • *** Vorteilhafte Wirkung der Ausführungsform 1 ***
  • Wie oben beschrieben bestimmt die Fehlererfassungsvorrichtung 10 gemäß der Ausführungsform 1, ob oder ob nicht erfasste Daten für eine in der Vergangenheit liegende Bezugsperiode erfasste Daten einschließen, die einen erfassten Inhalt identifizieren, bei dem die Differenz in Bezug auf einen Umfeldinhalt, der aus von einem peripheren Körper 200 erfassten Umfelddaten identifiziert wird, innerhalb eines Bezugsbereichs liegt. Auf diese Weise bestimmt die Fehlererfassungsvorrichtung 10 gemäß der Ausführungsform 1, ob oder ob nicht ein Fehler in einem Sensor vorliegt.
  • Daher ist es möglich, eine Anomalie des Sensors zu erfassen, ohne vorab ein Modell erzeugen zu müssen.
  • *** Andere Konfigurationen ***
  • <Modifikation 1>
  • In der Ausführungsform 1 wird für den Teilbereich 58, für den keine Umfelddaten vorhanden sind, aus denen eine Position identifiziert werden kann, die in dem zum Ziel genommenen Teilbereich 58 liegt, bestimmt, dass der Betrieb des Sensors 31 normal ist.
  • Für den Teilbereich 58, für den keine Umfelddaten vorhanden sind, aus denen die Position identifiziert werden kann, die in dem zum Ziel genommenen Teilbereich 58 liegt, kann auf Basis dessen, ob oder ob nicht erfasste Daten für eine in der Vergangenheit liegende Bezugsperiode erfasste Daten einschließen, die eine Eigenschaft eines erfassten Objekts angeben, die durch normale Daten angegeben wird, die ausgegeben werden sollten, wenn der Sensor 31 normal ist, bestimmt werden, ob oder ob nicht der Betrieb des Sensors 31 normal ist. Wie oben beschrieben sieht ein Objekt, das sich nicht bewegt, wie etwa der Briefkasten 54 und der Baum 55, aus, als würde es sich mit einer Geschwindigkeit v1, die derjenigen des beweglichen Körpers 100 gleich ist, zum beweglichen Körper 100 hin bewegen. Für den Teilbereich 58, für den keine Umfelddaten vorhanden sind, aus denen die Position identifiziert werden kann, die in dem zum Ziel genommenen Teilbereich 58 liegt, kann somit die Fehlerbestimmungseinheit 23 auf Basis dessen, ob oder ob nicht erfasste Daten für eine in der Vergangenheit liegende Bezugsperiode erfasste Daten, die eine Bewegungsrichtung, die derjenigen des beweglichen Körpers 100 entgegengesetzt ist, und außerdem eine Bewegungsgeschwindigkeit, die derjenigen des beweglichen Körpers 100 gleich ist, einschließen, bestimmen, ob oder ob nicht der Betrieb des Sensors 31 normal ist.
  • <Modifikation 2>
  • In der Ausführungsform 1 wird jede der funktionellen Komponenten durch Software verwirklicht. Wie in der Modifikation 2 kann jedoch jede der funktionellen Komponenten durch Hardware verwirklicht werden. Was die Modifikation 2 betrifft, so werden Unterschiede zur Ausführungsform 1 beschrieben.
  • Eine Konfiguration einer Fehlererfassungsvorrichtung 10 gemäß der Modifikation 2 wird nun unter Bezugnahme auf 11 beschrieben.
  • Wenn jede der funktionellen Komponenten durch die Hardware verwirklicht wird, weist die Fehlererfassungsvorrichtung 10 eine elektronische Schaltung 15 anstelle des Prozessors 11, des Arbeitsspeichers 12 und des Datenspeichers 13 auf. Die elektronische Schaltung 15 ist eine zweckgebundene elektronische Schaltung, die Funktionen für jede der funktionellen Komponenten, den Arbeitsspeicher 12 und den Datenspeicher 13 verwirklicht.
  • Es wird angenommen, dass die elektronische Schaltung 15 eine einzelne Schaltung, eine zusammengesetzte Schaltung, ein programmierter Prozessor, ein parallel programmierter Prozessor, ein logische IC, eine Gatteranordnung (GA) eine anwendungsspezifische integrierte Schaltung (ASIC) oder ein Field Programmable Gate Array (FPGA) ist.
  • Jede der funktionellen Komponenten kann durch eine einzige elektronische Schaltung 15 verwirklicht werden, oder jede der funktionellen Komponenten kann dadurch verwirklicht werden, dass sie auf mehrere elektronische Schaltungen 15 verteilt wird.
  • <Modifikation 3>
  • Als Modifikation 3 kann jede der funktionellen Komponenten zum Teil durch Hardware verwirklicht werden, und jede von den anderen funktionellen Komponenten kann durch Software verwirklicht werden.
  • Der Prozessor 11, der Arbeitsspeicher 12, der Datenspeicher 13 und die elektronische Schaltung 15 werden gemeinsam als Verarbeitungsschaltung bezeichnet. Anders ausgedrückt werden die Funktionen der einzelnen funktionellen Komponenten durch die Verarbeitungsschaltung verwirklicht.
  • Ausführungsform 2.
  • Die Ausführungsform 2 unterscheidet sich von der Ausführungsform 1 darin, dass die Ausführungsform 2 eine Bestimmung unter Berücksichtigung einer Verzögerung zwischen Ausgabezeiten von erfassten Daten und Umfelddaten ausführt. In der Ausführungsform 2 wird eine Beschreibung der Unterschiede gegeben, aber auf eine Beschreibung gleicher Punkte wird verzichtet.
  • *** Beschreibung des Betriebs ***
  • Nun wird ein Betrieb einer Fehlererfassungsvorrichtung 10 gemäß Ausführungsform 2 unter Bezugnahme auf 7 und 12 beschrieben.
  • Der Betrieb der Positionsbestimmungsvorrichtung 10 gemäß der Ausführungsform 2 entspricht einem Fehlererfassungsverfahren gemäß der Ausführungsform 2. Und der Betrieb der Fehlererfassungsvorrichtung 10 gemäß der Ausführungsform 2 entspricht einem Fehlererfassungsprogramm gemäß der Ausführungsform 2.
  • Ein Fehlerbestimmungsprozess (Schritt S3 von 2) gemäß der Ausführungsform 2 wird nun unter Bezugnahme auf 7 beschrieben.
  • Prozesse der Schritte S31, S33 und S34 sind denen der Ausführungsform 1 gleich.
  • Man beachte, dass in der Ausführungsform 2 angenommen wird, dass erfasste Daten eine Zeit der Ausgabe durch den Sensor 31, der in dem beweglichen Körper 100 montiert ist, angeben. Es wird außerdem angenommen, dass Umfelddaten Daten sind, die aus Sensordaten ermittelt werden, die von einem Sensor ausgegeben werden, der an dem peripheren Körper 200 montiert ist, und eine Zeit der Ausgabe durch den am peripheren Körper 200 montierten Sensor angeben. Hierbei wird angenommen, dass die Zeit am beweglichen Körper 100 und die Zeit am peripheren Körper 200 über ein Positionsbestimmungssignal oder dergleichen synchronisiert sind.
  • (Schritt S32 von Fig. 7: Objektbestimmungsprozess)
  • Die Fehlerbestimmungseinheit 23 berechnet eine Position des peripheren Körpers 200 zu der Zeit, die von den erfassten Daten angegeben wird, auf Basis einer Verzögerung zwischen der Zeit, die von den erfassten Daten angegeben wird, und der Zeit, die von den Umfelddaten angegeben wird, und eine Bewegungsrichtung und eine Bewegungsgeschwindigkeit, die aus den Umfelddaten identifiziert wird. Dann behandelt die Fehlerbestimmungseinheit 23 die berechnete Position als Position, die aus den Umfelddaten identifiziert wird.
  • Danach bestimmt die Fehlerbestimmungseinheit 23 auf die gleiche Weise wie in der Ausführungsform 1, ob oder ob nicht die erfassten Daten erfasste Daten einschließen, aus denen ein erfasster Inhalt so identifiziert werden kann, dass sein Gesamtwert in einem Bezugsbereich liegt, wobei der Gesamtwert durch Gewichten und dann Addieren sowohl einer Positionsdifferenz als auch einer Bewegungsrichtungsdifferenz und einer Bewegungsgeschwindigkeitsdifferenz, die aus den erfassten Daten und den peripheren Daten identifiziert werden, berechnet wird.
  • Konkret berechnet die Fehlerbestimmungseinheit 23, die jedes erfasste Objekt zum Ziel nimmt, eine Position des peripheren Körpers 200 zu der Zeit, die von erfassten Daten angegeben wird, die das zum Ziel genommene erfasste Objekt betreffen, wie in Formel 2 dargestellt ist. TIMEdiff = TIMEo TIMEe LATo' = LATo + TIMEdiff × Volat LONo' = LONo + TIMEdiff × Volon
    Figure DE112017008078B4_0003
  • Hierbei ist TIMEe die Zeit, die von den erfassten Daten angegeben wird, und TIMEo ist die Zeit, die von den Umfelddaten angegeben wird. Volat ist ein Geschwindigkeit des peripheren Körpers 200 in einer Breitengradrichtung und Volon ist eine Geschwindigkeit des peripheren Körpers 200 in einer Längengradrichtung. LATo' ist der Breitengrad des peripheren Körpers 200 zu der Zeit, die von den erfassten Daten angegeben wird, und LONo' ist der Längengrad des peripheren Körpers 200 zu der Zeit, die von den erfassten Daten angegeben wird.
  • Wie in 12 dargestellt ist, ist es auf diese Weise möglich, eine Differenz zwischen der Position des peripheren Körpers 200, die aus den erfassten Daten berechnet wird, und der Position des peripheren Körpers 200, die aus den peripheren Daten berechnet wird, aufgrund einer Verzögerung zwischen der Zeit der Ausgabe der erfassten Daten und der Zeit der Ausgabe der Umfelddaten zu korrigieren.
  • Dann berechnet die Fehlerbestimmungseinheit 23 anhand der Position des peripheren Körpers 200 zu der Zeit, die von den erfassten Daten angeben wird, TOTALdiff anhand der Formel 1 und bestimmt, ob oder ob nicht ein erfasstes Objekt vorhanden ist, für das TOTALdiff innerhalb eines Bezugsbereichs liegt.
  • *** Vorteilhafte Wirkung der Ausführungsform 2 ***
  • Wie oben beschrieben korrigiert die Fehlererfassungsvorrichtung 10 gemäß Ausführungsform 2 unter Berücksichtigung einer Verzögerung zwischen einer Zeit, die von erfassten Daten angeben wird, und einer Zeit, die von Umfelddaten angegeben wird, eine aus den Umfelddaten identifizierte Position. Auf diese Weise kann beispielsweise auch dann, wenn ein Abrufen der Umfelddaten Zeit braucht, weil eine Kommunikationsverzögerung auftritt, exakt bestimmt werden, ob oder ob nicht ein Fehler in dem Sensor 31 vorliegt.
  • Bezugszeichenliste
  • 10
    Fehlererfassungsvorrichtung,
    11
    Prozessor,
    12
    Arbeitsspeicher,
    13:
    Datenspeicher,
    14:
    Kommunikationsschnittstelle,
    15:
    elektronische Schaltung,
    21:
    Erfassungsdatenabrufeinheit,
    22:
    Umfelddatenabrufeinheit,
    23:
    Fehlerbestimmungseinheit,
    24:
    Mitteilungseinheit,
    31:
    Sensor,
    32:
    Kartenspeichervorrichtung,
    33:
    Anzeigevorrichtung,
    34:
    Kommunikationsvorrichtung,
    51:
    Fahrbahn,
    52:
    Gegenfahrbahn,
    53:
    Straße,
    54:
    Briefkasten,
    55:
    Baum,
    56:
    Abtastbereich,
    57:
    Reflexionspunkt,
    58:
    Teilbereich

Claims (5)

  1. Fehlererfassungsvorrichtung (10), umfassend: eine Erfassungsdatenabrufeinheit (21), um erfasste Daten abzurufen, das heißt Daten eines Sensors (31), die während einer in der Vergangenheit liegenden Bezugsperiode von einem an einem beweglichen Körper montierten Sensor (31) ausgegeben wurden, wobei die Daten des Sensors (31) Daten sind, aus denen eine Position, eine Bewegungsrichtung und eine Bewegungsgeschwindigkeit eines Objekts, das im Umfeld des beweglichen Körpers vorhanden ist, in Bezug auf den beweglichen Körper als erfasster Inhalt identifizierbar sind; eine Umfelddatenabrufeinheit (22), um Umfelddaten abzurufen, die von dem peripheren Körper, der im Umfeld des beweglichen Körpers vorhanden ist, erfasst werden, wobei die Umfelddaten Daten sind, aus denen die Position, die Bewegungsrichtung und die Bewegungsgeschwindigkeit des peripheren Körpers als Umfeldinhalt identifizierbar sind; und eine Fehlerbestimmungseinheit (23), um auf Basis dessen, ob oder ob nicht die von der Erfassungsdatenabrufeinheit (21) abgerufenen erfassten Daten erfasste Daten einschließen, aus denen ein erfasster Inhalt so identifiziert wird, dass ein Gesamtwert in einem Bezugsbereich liegt, zu bestimmen, ob oder ob nicht ein Fehler in dem Sensor (31) vorliegt, wobei der Gesamtwert durch Gewichten und dann Addieren sowohl einer Positionsdifferenz als auch einer Bewegungsrichtungsdifferenz und einer Bewegungsgeschwindigkeitsdifferenz, die aus den erfassten Daten und den Umfelddaten identifiziert werden, berechnet wird.
  2. Fehlererfassungsvorrichtung (10) nach Anspruch 1, wobei die erfassten Daten eine Zeit einer Ausgabe durch den am beweglichen Körper montierten Sensor (31) angeben; wobei die Umfelddaten Daten sind, die aus Daten des Sensors (31) ermittelt werden, die von einem Sensor (31) ausgegeben werden, der an dem peripheren Körper montiert ist, und eine Zeit der Ausgabe durch den am peripheren Körper montierten Sensor (31) angeben, und wobei die Fehlerbestimmungseinheit (23) eine Position des peripheren Körpers zu der Zeit, die von den erfassten Daten angegeben wird, auf Basis einer Verzögerung zwischen der Zeit, die von den erfassten Daten angegeben wird, und der Zeit, die von den Umfelddaten angegeben wird, und die Bewegungsrichtung und die Bewegungsgeschwindigkeit, die aus den Umfelddaten identifiziert wird, berechnet und dann die berechnete Position als Position behandelt, die aus den Umfelddaten identifiziert worden ist.
  3. Fehlererfassungsvorrichtung (10) nach Anspruch 1 oder 2, wobei die Fehlerbestimmungsvorrichtung für jeden Teilbereich (58), der durch Teilen eines Abtastbereichs (56) des Sensors (31) erhalten wird, bestimmt, ob oder ob nicht der Fehler des Sensors (31) vorliegt.
  4. Fehlererfassungsverfahren, umfassend: Abrufen von erfassten Daten, das heißt Daten des Sensors (31), die während einer in der Vergangenheit liegenden Bezugsperiode von einem an einem beweglichen Körper montierten Sensor (31) ausgegeben wurden, durch einen Computer, wobei die Daten des Sensors (31) Daten sind, aus denen eine Position, eine Bewegungsrichtung und eine Bewegungsgeschwindigkeit eines Objekts, das im Umfeld des beweglichen Körpers vorhanden ist, in Bezug auf den beweglichen Körper als erfasster Inhalt identifizierbar sind; Abrufen von Umfelddaten, die von dem peripheren Körper, der im Umfeld des beweglichen Körpers vorhanden ist, erfasst werden, durch den Computer, wobei die Umfelddaten Daten sind, aus denen die Position, die Bewegungsrichtung und die Bewegungsgeschwindigkeit des peripheren Körpers als Umfeldinhalt identifizierbar sind; und Bestimmen, ob oder ob nicht ein Fehler in dem Sensor (31) vorliegt, durch den Computer auf Basis dessen, ob oder ob nicht die abgerufenen erfassten Daten erfasste Daten einschließen, aus denen ein erfasster Inhalt so identifiziert wird, dass ein Gesamtwert in einem Bezugsbereich liegt, wobei der Gesamtwert durch Gewichten und dann Addieren sowohl einer Positionsdifferenz als auch einer Bewegungsrichtungsdifferenz und einer Bewegungsgeschwindigkeitsdifferenz, die aus den erfassten Daten und den Umfelddaten identifiziert werden, berechnet wird.
  5. Fehlererfassungsprogramm, das einen Computer dazu veranlasst, auszuführen: einen Erfassungsdatenabrufprozess zum Abrufen von erfassten Daten, das heißt Daten des Sensors (31), die während einer in der Vergangenheit liegenden Bezugsperiode von einem an einem beweglichen Körper montierten Sensor (31) ausgegeben wurden, wobei die Daten des Sensors (31) Daten sind, aus denen eine Position, eine Bewegungsrichtung und eine Bewegungsgeschwindigkeit eines Objekts, das im Umfeld des beweglichen Körpers vorhanden ist, in Bezug auf den beweglichen Körper als erfasster Inhalt identifizierbar sind; einen Umfelddatenabrufprozess zum Abrufen von Umfelddaten, die von dem peripheren Körper, der im Umfeld des beweglichen Körpers vorhanden ist, erfasst werden, wobei die Umfelddaten Daten sind, aus denen die Position, die Bewegungsrichtung und die Bewegungsgeschwindigkeit des peripheren Körpers als Umfeldinhalt identifizierbar sind; und einen Fehlerbestimmungsprozess zum Bestimmen, ob oder ob nicht ein Fehler in dem Sensor (31) vorliegt, auf Basis dessen, ob oder ob nicht die durch den Erfassungsdatenabrufprozess abgerufenen erfassten Daten erfasste Daten einschließen, aus denen ein erfasster Inhalt so identifiziert wird, dass ein Gesamtwert in einem Bezugsbereich liegt, wobei der Gesamtwert durch Gewichten und dann Addieren sowohl einer Positionsdifferenz als auch einer Bewegungsrichtungsdifferenz und einer Bewegungsgeschwindigkeitsdifferenz, die aus den erfassten Daten und den Umfelddaten identifiziert werden, berechnet.
DE112017008078.9T 2017-11-13 2017-11-13 Fehlererfassungsvorrichtung, fehlererfassungsverfahren und fehlererfassungsprogramm Active DE112017008078B4 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/040741 WO2019092880A1 (ja) 2017-11-13 2017-11-13 故障検出装置、故障検出方法及び故障検出プログラム

Publications (2)

Publication Number Publication Date
DE112017008078T5 DE112017008078T5 (de) 2020-06-25
DE112017008078B4 true DE112017008078B4 (de) 2022-03-17

Family

ID=66439119

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112017008078.9T Active DE112017008078B4 (de) 2017-11-13 2017-11-13 Fehlererfassungsvorrichtung, fehlererfassungsverfahren und fehlererfassungsprogramm

Country Status (5)

Country Link
US (1) US11220272B2 (de)
JP (1) JP6647466B2 (de)
CN (1) CN111316118B (de)
DE (1) DE112017008078B4 (de)
WO (1) WO2019092880A1 (de)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11851088B2 (en) * 2020-03-11 2023-12-26 Baidu Usa Llc Method for determining capability boundary and associated risk of a safety redundancy autonomous system in real-time
CN112255621B (zh) * 2020-10-09 2022-08-30 中国第一汽车股份有限公司 一种车辆传感器的标定方法、装置、电子设备及存储介质
CN112887172B (zh) * 2021-02-19 2023-03-24 北京百度网讯科技有限公司 车辆感知系统测试方法、装置、设备及存储介质
CN115166646B (zh) * 2022-09-02 2022-11-11 深圳朗驰科技有限公司 一种基于可信体系的雷达识别控制系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007178310A (ja) 2005-12-28 2007-07-12 Alpine Electronics Inc 車載システムおよびレーダ故障診断方法
JP2009146086A (ja) 2007-12-13 2009-07-02 Toyota Central R&D Labs Inc 車両故障診断予測装置
JP2016162204A (ja) 2015-03-02 2016-09-05 株式会社デンソー 汚れ判定装置
JP2016197081A (ja) 2015-04-06 2016-11-24 日立建機株式会社 運搬車両

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4045041B2 (ja) * 1999-02-05 2008-02-13 本田技研工業株式会社 レーダ装置及びレーダ装置の異常検出方法
DE10149115A1 (de) * 2001-10-05 2003-04-17 Bosch Gmbh Robert Objekterfassungsvorrichtung
JP4079739B2 (ja) * 2002-10-08 2008-04-23 富士通テン株式会社 車載用レーダ装置
JP2008060874A (ja) 2006-08-31 2008-03-13 Hitachi Ltd 車載カメラ及び車載カメラ用付着物検出装置
US8725327B2 (en) * 2008-04-22 2014-05-13 Exelis Inc. Navigation system and method of obtaining accurate navigational information in signal challenging environments
JP5577614B2 (ja) * 2009-03-31 2014-08-27 日本電気株式会社 レーダ装置、目標同化判定処理方法およびプログラム
JP5610847B2 (ja) * 2010-05-26 2014-10-22 三菱電機株式会社 角速度推定装置及びコンピュータプログラム及び角速度推定方法
DE102010049093A1 (de) * 2010-10-21 2012-04-26 Gm Global Technology Operations Llc (N.D.Ges.D. Staates Delaware) Verfahren zum Betreiben zumindest eines Sensors eines Fahrzeugs und Fahrzeug mit zumindest einem Sensor
JP5497248B1 (ja) * 2012-07-10 2014-05-21 本田技研工業株式会社 故障判定装置
JP5651642B2 (ja) * 2012-07-18 2015-01-14 本田技研工業株式会社 物体位置検知装置
JP6210845B2 (ja) * 2013-11-01 2017-10-11 三菱電機株式会社 目標追尾装置及び目標追尾方法
KR102118464B1 (ko) * 2014-03-26 2020-06-03 얀마 가부시키가이샤 자율 주행 작업 차량
DE102016201250A1 (de) * 2016-01-28 2017-08-03 Conti Temic Microelectronic Gmbh Verfahren und Vorrichtung zur Reichweitenbestimmung eines Sensors für ein Kraftfahrzeug
US11119188B2 (en) * 2016-10-27 2021-09-14 Hitachi Automotive Systems, Ltd. Malfunction detecting device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007178310A (ja) 2005-12-28 2007-07-12 Alpine Electronics Inc 車載システムおよびレーダ故障診断方法
JP2009146086A (ja) 2007-12-13 2009-07-02 Toyota Central R&D Labs Inc 車両故障診断予測装置
JP2016162204A (ja) 2015-03-02 2016-09-05 株式会社デンソー 汚れ判定装置
JP2016197081A (ja) 2015-04-06 2016-11-24 日立建機株式会社 運搬車両

Also Published As

Publication number Publication date
JPWO2019092880A1 (ja) 2020-04-02
US11220272B2 (en) 2022-01-11
WO2019092880A1 (ja) 2019-05-16
DE112017008078T5 (de) 2020-06-25
CN111316118B (zh) 2023-07-04
JP6647466B2 (ja) 2020-02-14
US20200283006A1 (en) 2020-09-10
CN111316118A (zh) 2020-06-19

Similar Documents

Publication Publication Date Title
DE112017008078B4 (de) Fehlererfassungsvorrichtung, fehlererfassungsverfahren und fehlererfassungsprogramm
DE102012204901B4 (de) Verbesserung der Zuverlässigkeit beim Erkennen von Schienenkreuzungsereignissen
EP3688742B1 (de) System zur erzeugung und/oder aktualisierung eines digitalen modells einer digitalen karte
DE112018003474T5 (de) System und Verfahren zum Erfassen eines Schikanierens von autonomen Fahrzeugen beim Fahren
DE102011103795B4 (de) System zum Bewerten eines Ziels in der Nähe eines Fahrzeugs
DE112009004902B4 (de) Verfahren zum Bestimmen einer Fahrzeugfahrposition und Fahrzeugfahrposition-Bestimmungsvorrichtung
DE102017105305A1 (de) Verfahren zur automatischen bestimmung einer sensorstellung
DE112017007201T5 (de) Ausfalldetektionseinrichtung, Ausfalldetektionsverfahren und Ausfalldetektionsprogramm
DE112015004817B4 (de) Hinderniswarnvorrichtung
DE102015224995A1 (de) Warnvorrichtung
DE102013113619A1 (de) Probabilistische Zielauswahl und Gefahrbewertungsverfahren und Anwendung auf ein Kreuzungs-Kollisonswarnsystem
DE102018120336A1 (de) Kommunikation von infrastrukturinformationen an ein fahrzeug über bodendurchdringungsradar
EP3714286B1 (de) Verfahren und vorrichtung zur ermittlung eines installationswinkels zwischen einer fahrbahn, auf der ein fahrzeug fährt, und einer erfassungsrichtung eines mess- bzw. radarsensors
DE102019122757A1 (de) Fahrzeuggeschwindigkeitssteuerung
DE102019127208A1 (de) Sensorbegrenzter Spurwechsel
DE112016006616T5 (de) Peripherieerkennungseinrichtung, Peripherieerkennungsverfahren und Peripherieerkennungsprogramm
DE112016005947B4 (de) Fahrzeugbestimmungsvorrichtung, Fahrzeugbestimmungsverfahren und Fahrzeugbestimmungsprogramm
DE102019214628A1 (de) Validierung von Umfelderfassung mittels Satelitenbildern und SAR-Radardaten
DE102020118067A1 (de) Erkennung von strassenoberflächenbedingungen
EP3904833A1 (de) Vorrichtung und verfahren zur auswertung von signalen von umfelderfassungssensoren für eine trajektorienregelung und/oder -steuerung eines automatisiert betreibbaren fahrzeuges
DE112018000494T5 (de) Fahrzeugsteuerungsvorrichtung und managementsystem
DE102019116962A1 (de) Transportinfrastrukturkommunikation und -steuerung
WO2019162317A1 (de) Verfahren zur erzeugung von sensordaten für sicherheitskritische automobil-steuergeräte
DE102021123522A1 (de) Erfassung von fahrzeugen und reaktion darauf
DE112018003248T5 (de) Fahrzeuggeschwindigkeit-steuervorrichtung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R084 Declaration of willingness to licence
R020 Patent grant now final