-
Technisches Gebiet
-
Die vorliegende Erfindung bezieht sich auf ein Fahrzeugsteuersystem, das einen Zustand eines Gegenstands unter Verwendung von Informationen über den Gegenstand schätzt, die durch verschiedene Arten von Sensoren detektiert werden.
-
Hintergrund
-
Der Hintergrund des betreffenden technischen Gebiets enthält den folgenden Stand der Technik. In PTL (
JP 2018-97765 A ) wird dann, wenn ein Radarzielobjekt, das einen Gegenstand angibt, der durch ein Radar detektiert wird, und ein Bildzielobjekt, das einen Gegenstand angibt, der durch eine Bildaufnahmevorrichtung detektiert wird, von demselben Gegenstand erzeugt werden, ein Fusionszielobjekt erzeugt, indem das Radarzielobjekt und das Bildzielobjekt integriert werden. Anschließend wird unter Verwendung der Position des Bildzielobjekts, das verwendet worden ist, um das Fusionszielobjekt zu erzeugen in einer Breitenrichtung des eigenen Fahrzeugs als eine seitliche Position und unter Verwendung einer Bewegungsgeschwindigkeit in der Breitenrichtung des eigenen Fahrzeugs als eine seitliche Geschwindigkeit eine Berechnung durchgeführt. PTL 1 offenbart eine Gegenstandsdetektionsvorrichtung, die dann, wenn kein Fusionszielobjekt erzeugt wird, indem ein Radarzielobjekt erfasst wird und kein Bildzielobjekt erfasst wird, durch die seitliche Position und die seitliche Geschwindigkeit des Bildzielobjekts, das verwendet worden ist, um das Fusionszielobjekt zu erzeugen, und ein Radarzielobjekt, das durch eine Radarzielobjekt-Erfassungseinheit erfasst wird, ein vorläufiges Fusionszielobjekt erzeugt (siehe Zusammenfassung).
-
Entgegenhaltungsliste
-
Patentliteratur
-
-
Zusammenfassung der Erfindung
-
Technisches Problem
-
In der in PTL 1 offenbarten Technik wird ein konstanter Wert für einen Beobachtungsfehler eines Sensors (Radar und Bildaufnahmevorrichtung) verwendet. Somit wird eine Gruppierung eines Zielobjekts mit einer Position, die aus mehreren Sensorwerten geschätzt wird, möglicherweise fehlerhaft durchgeführt, und ein Gegenstand kann fehlerhaft als mehrere Gegenstände erkannt werden. Außerdem wird der Beobachtungswert des Sensors mit hoher Genauigkeit nicht ausgewählt und das Erkennungsergebnis des Sensors wird nicht integriert, obwohl der Trend des Fehlers abhängig von der Art des Sensors variiert. Somit kann die Erkennungsgenauigkeit insgesamt herabgesetzt werden. Ferner variiert der Fehler des Sensors abhängig von der Umgebung des externen Bereichs, und der Einfluss des externen Bereichs wird nicht in Betracht gezogen.
-
Lösung des Problems
-
Ein repräsentatives Beispiel für die in dieser Anmeldung offenbarte Erfindung ist wie folgt. Ein Fahrzeugsteuersystem enthält eine Integrationseinheit, die auf der Grundlage von Informationen von einem Sensor, der Informationen über den externen Bereich eines eigenen Fahrzeugs erfasst, Informationen über eine Position und eine Geschwindigkeit eines Zielobjekts, das in einem externen Bereich vorhanden ist, und Fehler der Position und der Geschwindigkeit schätzt. Die Integrationseinheit schätzt einen Fehler eines Detektionsergebnisses aus dem Detektionsergebnis eines Sensors, der einen externen Bereich eines Fahrzeugs detektiert, in Übereinstimmung mit einer Eigenschaft des Sensors, bestimmt eine Korrelation zwischen Detektionsergebnissen mehrerer Sensoren und integriert korrelierte Detektionsergebnisse und berechnet die Fehler der Position und der Geschwindigkeit des Zielobjekts.
-
Vorteilhafte Wirkungen der Erfindung
-
Gemäß einem Aspekt der vorliegenden Erfindung ist es möglich, einen Fehler eines Beobachtungswertes eines Sensors genau zu erhalten und die Genauigkeit eines Gruppierungsprozesses zu verbessern. Andere Aufgaben, Konfigurationen und Wirkungen als die oben beschriebenen werden durch die Beschreibungen der folgenden Ausführungsformen verdeutlicht.
-
Figurenliste
-
- 1 ist ein Konfigurationsdiagramm, das ein Fahrzeugsteuersystem gemäß einer Ausführungsform der vorliegenden Erfindung veranschaulicht.
- 2 ist ein Ablaufplan, der eine Gesamtheit der Integrationsverarbeitung in der vorliegenden Ausführungsform veranschaulicht.
- 3 ist ein Ablaufplan eines Vorhersageaktualisierungsprozesses in Schritt S2.
- 4 ist ein Diagramm, das einen Prozess in Schritt S2 veranschaulicht.
- 5 ist ein Diagramm, das einen Gruppierungsprozess (S3) im verwandten Gebiet veranschaulicht.
- 6 ist ein Diagramm, das den Gruppierungsprozess (S3) veranschaulicht.
-
Beschreibung der Ausführungsformen
-
Im Folgenden wird unter Bezugnahme auf die Zeichnungen eine Ausführungsform beschrieben.
-
1 ist ein Konfigurationsdiagramm, das ein Fahrzeugsteuersystem gemäß einer Ausführungsform der vorliegenden Erfindung veranschaulicht.
-
Das Fahrzeugsteuersystem in der vorliegenden Ausführungsform enthält einen Sensor D001 zur Erkennung einer Bewegung des eigenen Fahrzeugs, eine Sensorgruppe D002 zur Erkennung eines externen Bereichs, ein Positionsbestimmungssystem D003, eine Karteneinheit D004, ein Eingangskommunikationsnetz D005, eine Sensorerkennungs-Integrationsvorrichtung D006, eine Vorrichtung D007 zur Bestimmung eines Plans zum autonomen Fahren und eine Aktorengruppe D008. Der Sensor D001 zur Erkennung einer Bewegung des eigenen Fahrzeugs enthält einen Kreiselsensor, einen Raddrehzahlsensor, einen Lenkwinkelsensor, einen Beschleunigungssensor und dergleichen, die am Fahrzeug angebracht sind, und misst eine Gierrate, eine Raddrehzahl, einen Lenkwinkel, eine Beschleunigung und dergleichen, die die Bewegung des eigenen Fahrzeugs darstellen. Die Sensorgruppe D002 zur Erkennung eines externen Bereichs detektiert ein Fahrzeug, eine Person, eine weiße Linie einer Straße, ein Zeichen und dergleichen außerhalb des eigenen Fahrzeugs und erkennt Informationen über das Fahrzeug, die Person, die weiße Linie, das Zeichen oder dergleichen. Eine Position, eine Geschwindigkeit und eine Art des Gegenstands eines Gegenstands wie etwa eines Fahrzeugs oder einer Person werden erkannt. Die Form der weißen Linie der Straße einschließlich der Position wird erkannt. Für die Aussage werden die Position und der Inhalt eines Zeichens erkannt. Als die Sensorgruppe D002 zur Erkennung eines externen Bereichs werden Sensoren wie etwa ein Radar, eine Kamera und ein Sonar verwendet. Die Konfiguration und die Anzahl der Sensoren sind nicht insbesondere eingeschränkt. Das Positionsbestimmungssystem D003 misst die Position des eigenen Fahrzeugs. Als ein Beispiel für das Positionsbestimmungssystem D003 gibt es ein Satellitenpositionsbestimmungssystem. Die Karteneinheit D004 wählt Karteninformationen um das eigene Fahrzeug aus und gibt diese aus. Das Eingangskommunikationsnetz D005 erfasst Informationen von diversen Informationserfassungsvorrichtungen und überträgt die Informationen an die Sensorerkennungs-Integrationsvorrichtung D006. Als das Eingangskommunikationsnetz D005 werden das Steuereinheitsbereichsnetz (CAN), Ethernet, Drahtloskommunikation und dergleichen verwendet. Das CAN ist ein Netz, das im Allgemeinen in einem Fahrzeugsystem verwendet wird. Die Sensorerkennungs-Integrationsvorrichtung D006 erfasst Informationen über eine Bewegung des eigenen Fahrzeugs, Sensorgegenstandsinformationen, Sensorstraßeninformationen, Positionsbestimmungsinformationen und Karteninformationen vom Eingangskommunikationsnetz D005. Daraufhin intergiert die Sensorerkennungs-Integrationsvorrichtung D006 die Informationskomponenten als Umgebungsinformationen des eigenen Fahrzeugs und gibt die Umgebungsinformationen des eigenen Fahrzeugs an die Vorrichtung D007 zur Bestimmung eines Plans zum autonomen Fahren aus. Die Vorrichtung D007 zur Bestimmung eines Plans zum autonomen Fahren empfängt die Informationen vom Eingangskommunikationsnetz D005 und die Umgebungsinformationen des eigenen Fahrzeugs von der Sensorerkennungs-Integrationsvorrichtung D006. Die Vorrichtung zur Bestimmung eines Plans zum autonomen Fahren plant und bestimmt, wie das eigene Fahrzeug bewegt werden soll, und gibt Befehlsinformationen an die Aktorengruppe D008 aus. Die Aktorengruppe D008 betätigt die Aktoren in Übereinstimmung mit den Befehlsinformationen.
-
Die Sensorerkennungs-Integrationsvorrichtung D006 in der vorliegenden Ausführungsform enthält eine Informationsspeichereinheit D009, eine Sensorgegenstandsinformationen-Integrationseinheit D010 und eine Integrationseinheit D011 für Umgebungsinformationen des eigenen Fahrzeugs. Die Informationsspeichereinheit D009 speichert Informationen (z. B. Sensordaten, die durch die Sensorgruppe D002 zur Erkennung eines externen Bereichs gemessen werden) vom Eingangskommunikationsnetz D005 und stellt die Informationen für die Sensorgegenstandsinformationen-Integrationseinheit D010 und die Integrationseinheit D0011 für Umgebungsinformationen des eigenen Fahrzeugs bereit. Die Sensorgegenstandsinformationen-Integrationseinheit D010 erfasst die Sensorgegenstandsinformationen aus der Informationsspeichereinheit D009 und integriert die Informationen desselben Gegenstands, die durch mehrere Sensoren detektiert werden, als dieselben Informationen. Anschließend gibt die Sensorgegenstandsinformationen-Integrationseinheit das Integrationsergebnis als Integrationsgegenstandsinformationen an die Integrationseinheit D011 für Umgebungsinformationen des eigenen Fahrzeugs aus. Die Integrationseinheit D011 für Umgebungsinformationen des eigenen Fahrzeugs erfasst die Integrationsgegenstandsinformationen und die Bewegungsinformationen des eigenen Fahrzeugs, die Sensorstraßeninformationen, die Positionsbestimmungsinformationen und die Karteninformationen aus der Informationsspeichereinheit D009. Anschließend integriert die Integrationseinheit D011 für Umgebungsinformationen des eigenen Fahrzeugs die erfassten Informationen als Umgebungsinformationen des eigenen Fahrzeugs und gibt die Umgebungsinformationen des eigenen Fahrzeugs an die Vorrichtung D007 zur Bestimmung eines Plans zum autonomen Fahren aus.
-
Die Sensorerkennungs-Integrationsvorrichtung D006 ist durch einen Computer (Mikrocomputer) konfiguriert, der eine Vorrichtung für arithmetische Operationen, einen Datenspeicher und eine Eingangs/Ausgangs-Vorrichtung enthält.
-
Die Vorrichtung für arithmetische Operationen enthält einen Prozessor und führt ein Programm aus, das im Datenspeicher gespeichert ist. Ein Abschnitt der Verarbeitung, die durch die Vorrichtung für arithmetische Operationen durchgeführt wird, die das Programm ausführt, kann durch eine weitere Vorrichtung für arithmetische Operationen (z. B. Hardware wie etwa ein anwenderprogrammierbares Gate-Array (FPGA) und eine anwendungsspezifische integrierte Schaltung (ASIC)) ausgeführt werden.
-
Der Datenspeicher enthält einen ROM und einen RAM, die nichtflüchtige Speicherelemente sind. Der ROM speichert ein unveränderbares Programm (z. B. BIOS) und dergleichen. Der RAM enthält ein flüchtiges Speicherelement mit hoher Geschwindigkeit wie etwa einen dynamischen Schreib/Lese-Speicher (DRAM) und ein nichtflüchtiges Speicherelement wie etwa einen statischen Schreib/Lese-Speicher (SRAM). Der RAM speichert ein Programm, das durch die Vorrichtung für arithmetische Operationen ausgeführt wird, und Daten, die verwendet werden, wenn das Programm ausgeführt wird. Das Programm, das durch die Vorrichtung für arithmetische Operationen ausgeführt wird, ist in einem nichtflüchtigen Speicherelement gespeichert, das ein nichtflüchtiges Speichermedium der Sensorerkennungs-Integrationsvorrichtung D006 ist.
-
Die Eingangs/Ausgangs-Vorrichtung ist eine Schnittstelle, die in Übereinstimmung mit einem vorgegebenen Protokoll Verarbeitungsinhalte durch die Sensorerkennungs-Integrationsvorrichtung D006 nach außerhalb überträgt oder Daten von außerhalb empfängt.
-
2 ist ein Ablaufplan, der eine Gesamtheit der Integrationsverarbeitung in der vorliegenden Ausführungsform veranschaulicht.
-
Die Informationsspeichereinheit D009 speichert Sensordaten. Die Sensordaten sind Informationen über einen Gegenstand (ein Zielobjekt), der durch diverse Sensoren (Radar, Kamera, Sonar und dergleichen) der Sensorgruppe D002 zur Erkennung eines externen Bereichs erkannt wird, und enthalten Daten über eine relative Position, eine relative Geschwindigkeit und eine relative Position/Geschwindigkeit des erkannten Gegenstands zusätzlich zu Daten über einen Abstand und eine Richtung zum Gegenstand. Die relative Position/Geschwindigkeit kann durch einen Bereich (z. B. eine Fehlerellipse vom Typ einer Gauß-Verteilung) dargestellt sein, in der der Gegenstand mit einer vorgegebenen Wahrscheinlichkeit zu einer vorgegebenen Zeit vorhanden ist. Die Fehlerellipse vom Typ einer Gauß-Verteilung kann durch eine Kovarianzmatrix dargestellt werden, die im folgenden Ausdruck gezeigt ist, und kann in einem weiteren Format dargestellt werden. Zum Beispiel kann der Existenzbereich des Gegenstands als eine weitere Form durch eine allgemeine Verteilung ungleich der Gauß-Verteilung dargestellt werden, die unter Verwendung des Partikelfilters geschätzt wird.
-
Die Kovarianzmatrix, die im folgenden Ausdruck gezeigt ist, enthält ein Element, das eine Korrelation zwischen Positionen angibt, ein Element, das eine Korrelation zwischen Geschwindigkeiten angibt, und ein Element, das eine Korrelation zwischen Positionen und Geschwindigkeiten angibt.
wobei
Elemente sind, die eine Korrelation zwischen Positionen angeben und
Elemente sind, die eine Korrelation zwischen Geschwindigkeiten angeben.
-
Der Datenspeicher der Sensorgegenstandsinformationen-Integrationseinheit D010 speichert Nachverfolgungsdaten, die eine Bahnkurve eines Gegenstands angeben, der durch die diversen Sensoren der Sensorgruppe D002 zur Erkennung eines externen Bereichs erkannt wird.
-
Bei der Integrationsverarbeitung schätzt die Sensorgegenstandsinformationen-Integrationseinheit D010 zuerst einen Fehler der Sensordaten (S1). Dieser Fehler wird durch die Art des Sensors, die Position eines Gegenstands, der in einem Erkennungsbereich erkannt wird (z. B. ist der Fehler groß, wenn der Abstand zum Gegenstand groß ist, und weist der Gegenstand, der in der Mitte des Erkennungsbereichs erkannt wird, einen kleinen Fehler auf) und eine externe Umgebung (Helligkeit des externen Bereichs, Sichtbarkeit, Regen, Schneefall, Temperatur und dergleichen) bestimmt. Außerdem werden mehrere Komponenten von Sensordaten in ein gemeinsames Koordinatensystem umgesetzt, wenn Koordinatensysteme von Komponenten von Sensordaten, die von den diversen Sensoren der Sensorgruppe D002 zur Erkennung des externen Bereichs ausgegeben werden, voneinander verschieden sind, und daraufhin wird ein Fehler der Sensordaten geschätzt. Einzelheiten eines Fehlerschätzungsprozesses (S1) werden später beschrieben.
-
Die Sensorgegenstandsinformationen-Integrationseinheit D010 aktualisiert Vorhersagedaten der Nachverfolgungsdaten (S2). Zum Beispiel wird unter der Annahme, dass der Gegenstand, der durch die Nachverfolgungsdaten dargestellt wird, vom vorher erkannten Punkt eine gleichmäßige, geradlinige Bewegung durchführt, ohne die Bewegungsrichtung und die Geschwindigkeit zu ändern, die Position des Gegenstands zum nächsten Zeitpunkt vorhergesagt, und die Nachverfolgungsdaten werden aktualisiert. Einzelheiten eines Vorhersagedaten-Aktualisierungsprozesses (S1) werden später beschrieben.
-
Anschließend führt die Sensorgegenstandsinformationen-Integrationseinheit D010 eine Gruppierungsprozess des Integrierens von Daten, die einen Gegenstand darstellen, von der unter Verwendung der Nachverfolgungsdaten vorhergesagten Position und der unter Verwendung der Sensordaten beobachteten Position aus (S3). Zum Beispiel wird eine Überlappung zwischen dem Fehlerbereich der unter Verwendung der Nachverfolgungsdaten vorhergesagten Position und dem Fehlerbereich der unter Verwendung der Sensordaten beobachteten Position bestimmt und die vorhergesagte Position und die beobachtete Position, bei denen die Fehlerbereiche einander überlappen, werden als Daten, die denselben Gegenstand darstellen, gruppiert. Einzelheiten eines Gruppierungsprozesses (S3) werden später beschrieben.
-
Daraufhin integriert die Sensorgegenstandsinformationen-Integrationseinheit D010 die Beobachtungsergebnisse unter Verwendung der Daten, die als die Gruppe, die denselben Gegenstand darstellt, bestimmt worden sind (S4). Zum Beispiel wird ein gewichteter Mittelwert der vorhergesagten Positionen und der beobachteten Positionen, die als die Daten, die denselben Gegenstand darstellen, gruppiert sind, unter Berücksichtigung von Fehlern der vorhergesagten Positionen und der beobachteten Positionen berechnet und eine integrierte Position des Gegenstands wird berechnet.
-
Daraufhin wird die integrierte Position als ein Fusionsergebnis ausgegeben und die Nachverfolgungsdaten werden weiter aktualisiert (S5).
-
3 ist ein Ablaufplan des Vorhersageaktualisierungsprozesses in Schritt S2 aus 2. 4 ist ein Diagramm, das einen Prozess in jedem Schritt veranschaulicht. In 4 ist die Geschwindigkeit durch einen Pfeil dargestellt, die Position ist durch eine Position auf 4 dargestellt und die Position/relative Geschwindigkeit ist durch eine Fehlerellipse dargestellt.
-
Zuerst erfasst die Sensorgegenstandsinformationen-Integrationseinheit D010 eine erste relative Geschwindigkeit Vr_t1_t1, eine erste relative Position X_t1_t1 und eine erste relative Position/relative Geschwindigkeit Pr_ t1_t1 eines Gegenstands um ein Fahrzeug zu einem vorgegebenen Zeitpunkt t1 (S21). Die relative Geschwindigkeit, die relative Position und die relative Position/relative Geschwindigkeit werden im Allgemeinen in einem folgenden Koordinatensystem (ebenso als ein relatives Koordinatensystem bezeichnet) auf der Grundlage einer Position der Fahrzeugmitte des eigenen Fahrzeugs dargestellt, können jedoch in einem Koordinatensystem auf der Grundlage der Position des Sensors, der die Sensordaten gemessen hat, dargestellt werden.
-
Daraufhin setzt die Sensorgegenstandsinformationen-Integrationseinheit D010 die relativen Geschwindigkeitsdaten in dem folgenden Koordinatensystem in absolute Geschwindigkeitsdaten in einem feststehenden Koordinatensystem um. Zum Beispiel verwendet die Sensorgegenstandsinformationen-Integrationseinheit D010 die erste relative Position X_t1_t1, um die erfasste erste relative Geschwindigkeit Vr_t1_t1 und die erste relative Position/relative Geschwindigkeit Pr_t1_t1 in dem folgenden Koordinatensystem in eine erste absolute Geschwindigkeit Va_t1_t1 und eine erste relative Position/absolute Geschwindigkeit Pa_t1_t1 in dem feststehenden Koordinatensystem umzusetzen (S22).
-
Anschließend erhält die Sensorgegenstandsinformationen-Integrationseinheit D010 die Position zu Zeitpunkt t2 aus der Position zu Zeitpunkt t1. Zum Beispiel setzt die Sensorgegenstandsinformationen-Integrationseinheit D010 die erste absolute Geschwindigkeit Va_t1_t1, die erste relative Position X_t1_t1 und die erste relative Position/absolute Geschwindigkeit Pa_t1_t1 zum Zeitpunkt t1 mit der Position 0 t1 t1 des Fahrzeugs als den Ursprung in die zweite absolute Geschwindigkeit Va_t2_t1, die zweite relative Position X_t2 t1 und die zweite relative Position/absolute Geschwindigkeit -a t2 t1 zum Zeitpunkt t2 um (S23).
-
Anschließend aktualisiert die Sensorgegenstandsinformationen-Integrationseinheit D010 die Ursprungsposition des Koordinatensystems vom Zeitpunkt t1 auf den Zeitpunkt t2, das heißt, von dem Koordinatensystem zum Zeitpunkt t1 auf das Koordinatensystem zum Zeitpunkt t2. Zum Beispiel aktualisiert die Sensorgegenstandsinformationen-Integrationseinheit D010 die zweite relative Position X_t2_t1, die zweite absolute Geschwindigkeit Va_t2_t1 und die zweite relative Position/absolute Geschwindigkeit Pa_t2_t1 des Gegenstands mit der Position 0 t1 t1 des Fahrzeugs zum Zeitpunkt t1 als den Ursprung auf die zweite relative Position X_t2_t2, die zweite absolute Geschwindigkeit Va_t2_t2 und die zweite relative Position/absolute Geschwindigkeit Pa_t2_t2 des Gegenstands mit der Position 0_t2_t1 des Fahrzeugs zum Zeitpunkt t2 als den Ursprung (S24).
-
Bei der Umsetzung von der Ursprungsposition 0 t1 t1 zum Zeitpunkt t1 auf die Ursprungsposition 0_t2_t1 zum Zeitpunkt t2 werden die Messwerte (das heißt, der Abbiegevorgang) der Fahrzeuggeschwindigkeit und der Gierrate des eigenen Fahrzeugs verwendet.
-
Da die Messwerte der Fahrzeuggeschwindigkeit und der Gierrate Fehler enthalten, kann der Fehlerbereich, der durch die zweite relative Position/absolute Geschwindigkeit Pa_t2_t2 angegeben wird, unter Berücksichtigung des Fehlers der Fahrzeuggeschwindigkeit und des Fehlers der Gierrate vergrößert sein.
-
Daraufhin setzt die Sensorgegenstandsinformationen-Integrationseinheit D010 die absoluten Geschwindigkeitsdaten in dem feststehenden Koordinatensystem in relative Geschwindigkeitsdaten in dem folgenden Koordinatensystem um. Zum Beispiel verwendet die Sensorgegenstandsinformationen-Integrationseinheit D010 die zweite relative Position X_t2_t2, um die zweite absolute Geschwindigkeit Va_t2_t2 und die zweite relative Position/absolute Geschwindigkeit Pa_t2_t2 in dem feststehenden Koordinatensystem in die zweite relative Geschwindigkeit Vr_t2_t2 und die zweite relative Position/relative Geschwindigkeit Pr_t2_t2 in dem folgenden Koordinatensystem im aktualisierten Koordinatensystem umzusetzen (S25)
-
Wie oben beschrieben ist, ist es gemäß dem Vorhersageaktualisierungsprozess der vorliegenden Ausführungsform möglich, die relative Position/relative Geschwindigkeit (den Fehlerbereich) genauer zu berechnen.
-
Außerdem ist es möglich, die Gruppierungsleistung der Sensordaten des Zielobjekts zu verbessern und die Bestimmungsleistung eines Betriebsplans zu verbessern.
-
Als nächstes werden Einzelheiten des Gruppierungsprozesses (S3) beschrieben.
-
Zum Beispiel wird ein Fall betrachtet, der in 5 veranschaulicht ist, das heißt, ein Fall, in dem die Beobachtungswerte eines Sensors A und eines Sensors B und das Vorhersageaktualisierungsergebnis erhalten werden, der Fehlerbereich des Beobachtungswertes des Sensors auf einen konstanten Wert eingestellt wird und der Fehlerbereich nach der Vorhersageaktualisierung ebenfalls auf einen konstanten Wert eingestellt wird. An einem Beobachtungspunkt 1 überlappen der Fehlerbereich des Beobachtungswertes des Sensors A, der Fehlerbereich des Beobachtungswertes des Sensors B und der Fehlerbereich des Vorhersageaktualisierungsergebnisses einander. Daher werden drei Zielobjekte, die am Beobachtungspunkt 1 beobachtet werden, in eines integriert und als ein Gegenstand erkannt. An dem Beobachtungspunkt 1, der in 5 veranschaulicht ist, überlappen die drei Fehlerbereiche einander. Selbst in einem Fall, in dem der Fehlerbereich des Beobachtungswertes des Sensors A den Fehlerbereich des Vorhersageaktualisierungsergebnisses überlappt und der Fehlerbereich des Beobachtungswertes des Sensors B den Fehlerbereich des Vorhersageaktualisierungsergebnisses überlappt, das heißt, einem Fall, in dem der Fehlerbereich des Beobachtungswertes des Sensors A und der Fehlerbereich des Beobachtungswertes des Sensors B einander über den Fehlerbereich des Vorhersageaktualisierungsergebnisses überlappen, werden die drei Zielobjekte in eines integriert und als ein Gegenstand erkannt. An einem Beobachtungspunkt 2 gibt es keine Überlappung zwischen dem Fehlerbereich des Beobachtungswertes des Sensors A, dem Fehlerbereich des Beobachtungswertes des Sensors B und dem Fehlerbereich des Vorhersageaktualisierungsergebnisses.
-
Daher werden die drei Zielobjekte, die am Beobachtungspunkt 2 beobachtet werden, nicht in eines integriert und werden als drei Gegenstände erkannt.
-
6 ist ein Diagramm, das einen Gruppierungsprozess (S3) in der vorliegenden Ausführungsform veranschaulicht. In der vorliegenden Ausführungsform wird der Gruppierungsprozess unter Verwendung des Fehlerbereichs, der in Übereinstimmung mit der Art des Sensors berechnet wird, ausgeführt. Der Sensor A ist z. B. ein Radar, das einen Abstand und eine Richtung zu einem Zielobjekt misst. Der Sensor A weist in einer Abstandsrichtung (vertikalen Richtung), die eine Richtung vom Sensor zum Zielobjekt ist, einen kleinen Fehler auf, weist jedoch in einer Drehungsrichtung (seitlichen Richtung), die zur Abstandsrichtung senkrecht ist, einen großen Fehler auf. Der Sensor B ist z. B. eine Kamera, die ein Bild des externen Bereichs aufnimmt. Der Sensor B weist in der Drehungsrichtung (horizontalen Richtung) einen kleinen Fehler auf, weist jedoch in der Abstandsrichtung (vertikalen Richtung) einen großen Fehler auf. Daher wird ein Fehlerbereich unter Berücksichtigung der Fehlereigenschaft abhängig von der Art des Senors erhalten, wie in 6 veranschaulicht ist. Wenn der Gruppierungsprozess unter Verwendung des Fehlerbereichs, der auf diese Weise berechnet worden ist, ausgeführt wird, überlappen der Fehlerbereich des Beobachtungswertes des Sensors A, der Fehlerbereich des Beobachtungswertes des Sensors B und der Fehlerbereich des Vorhersageaktualisierungsergebnisses einander am Beobachtungspunkt 1, ähnlich der obigen Beschreibung (5). Somit werden die drei Zielobjekte, die am Beobachtungspunkt 1 beobachtet werden, in eines integriert und als ein Gegenstand erkannt. Außerdem überlappt am Beobachtungspunkt 2 der Fehlerbereich des Beobachtungswertes des Sensors A den Fehlerbereich des Vorhersageaktualisierungsergebnisses und der Fehlerbereich des Beobachtungswertes des Sensors B überlappt den Fehlerbereich des Vorhersageaktualisierungsergebnisses. Somit werden die drei Zielobjekte, die am Beobachtungspunkt 2 beobachtet werden, in eines integriert und als ein Gegenstand erkannt.
-
Da in dem Fehlerschätzungsprozess (S1) in der vorliegenden Ausführungsform der Fehler in Übereinstimmung mit der Art und der Eigenschaft des Sensors berechnet wird und der Fehlerbereich eingestellt wird, ist es möglich, Zielobjekte, die durch die mehreren Sensoren beobachtet werden, genau zu integrieren und die Zielobjekte als einen Gegenstand zu erkennen. Das heißt, da die Genauigkeit des Gruppierungsprozesses verbessert wird und die Position eines Gegenstands außerhalb des Fahrzeugs genau beobachtet werden kann, ist es möglich, das Fahrzeug genau zu steuern.
-
Außerdem kann in der vorliegenden Ausführungsform der Fehler in Übereinstimmung mit dem Beobachtungsergebnis des Sensors berechnet werden. Daher kann die Sensorgegenstandsinformationen-Integrationseinheit D010 den Fehlerbereich unter Verwendung einer Funktion bestimmen, die das Beobachtungsergebnis (z. B. den Abstand zum Zielobjekt) als einen Parameter verwendet. Die Sensorgegenstandsinformationen-Integrationseinheit D010 kann den Fehlerbereich unter Verwendung einer Fehlertabelle, die vorab eingestellt wird, anstelle der Funktion bestimmen.
-
Zum Beispiel weist der Sensor im Allgemeinen an einem Detektionsbereichsende einen größeren Fehler als in der Mitte eines Detektionsbereichs auf. Daher kann der Fehler des Zielobjekts, das in der Mitte des Detektionsbereichs detektiert wird, kleiner eingestellt werden, und der Fehler des Zielobjekts, das in einem Abschnitt näher am Ende einer Detektionsverlagerung detektiert wird, kann größer eingestellt werden.
-
Außerdem weist das Radar als eine Art von Sensor einen kleinen Fehler in der Abstandsrichtung (vertikalen Richtung) und einen großen Fehler in der Drehungsrichtung (horizontalen Richtung) auf, jedoch variiert der Fehlerbereich abhängig vom Abstand zum Zielobjekt. Das heißt, der Fehler in der Drehungsrichtung (horizontalen Richtung) nimmt proportional zum Abstand zu und der Fehler in der Abstandsrichtung (vertikalen Richtung) ist ungeachtet des Abstands im Wesentlichen derselbe. Außerdem nimmt bei dem Radar, das eine Bereichsumschaltfunktion aufweist, der Fehler in der Drehungsrichtung (horizontalen Richtung) auf der Weitwinkelseite (Seite mit kurzem Abstand) zu und der Fehler in der Abstandsrichtung (vertikalen Richtung) ist ungeachtet des Bereichs im Wesentlichen derselbe.
-
Die Kamera als eine Art von Sensor weist einen kleinen Fehler in der Abstandsrichtung (vertikalen Richtung) und einen großen Fehler in der Drehungsrichtung (horizontalen Richtung) auf, jedoch variiert der Fehlerbereich abhängig vom Abstand zum Zielobjekt. Das heißt, der Fehler in der Drehungsrichtung (horizontalen Richtung) nimmt proportional zum Abstand zu und der Fehler in der Abstandsrichtung (vertikalen Richtung) nimmt proportional zum Quadrat des Abstands zu.
-
Da in der vorliegenden Ausführungsform wie oben beschrieben der Fehler des Sensors in Übereinstimmung mit der Position des beobachteten Zielobjekts berechnet wird und der Fehlerbereich eingestellt wird, ist es möglich, den Fehler des Beobachtungswertes des Sensors genau zu erhalten. Insbesondere wird der Fehler vergrößert, wenn der Abstand zum Zielobjekt groß ist; wird der Fehler in Übereinstimmung mit der Detektionsrichtung des Zielobjekts geändert, wird der Fehler des Zielobjekts nahe am Ende des Detektionsbereichs vergrößert und wird der Fehler auf einer Weitwinkelseite vergrößert. Daher ist es möglich, einen angemessenen Fehlerbereich für den Gruppierungsprozess zu verwenden. Daher ist es möglich, Zielobjekte, die durch mehrere Sensoren beobachtet werden, genau zu integrieren und die Zielobjekte als einen Gegenstand zu erkennen. Das heißt, da die Genauigkeit des Gruppierungsprozesses verbessert wird und die Position eines Gegenstands außerhalb des Fahrzeugs genauer beobachtet werden kann, ist es möglich, das Fahrzeug genau zu steuern.
-
In der vorliegenden Ausführungsform kann der Fehler in Übereinstimmung mit der Umgebung des externen Bereichs berechnet werden. Zum Beispiel ist der Sensorfehler bei gutem Wetter klein und bei regnerischem Wetter groß. Außerdem weist die Kamera als eine Art von Sensor unter Tags, wenn die Beleuchtungsstärke des externen Bereichs hoch ist, einen kleinen Fehler auf und weist nachts, wenn die Beleuchtungsstärke des externen Bereichs niedrig ist, einen großen Fehler auf.
-
Da, wie oben beschrieben ist, in der vorliegenden Ausführungsform der Fehler in Übereinstimmung mit der Umgebung außerhalb des Fahrzeugs berechnet wird, ist es möglich, einen genaueren Fehler zu berechnen, die Genauigkeit des Gruppierungsprozesses zu verbessern und das Fahrzeug genau zu steuern.
-
Die vorliegende Erfindung ist nicht auf die oben beschriebene Ausführungsform eingeschränkt und enthält diverse Modifikationen und äquivalente Konfigurationen innerhalb des Erfindungsgedankens der beigefügten Ansprüche. Zum Beispiel sind die obigen Beispiele im Einzelnen beschrieben, um die vorliegende Erfindung auf einfach zu verstehende Weise zu erklären, und die vorliegende Erfindung ist nicht notwendigerweise auf einen Fall eingeschränkt, der alle beschriebenen Konfigurationen enthält. Außerdem kann ein Abschnitt der Konfiguration eines Beispiels durch die Konfiguration eines weiteren Beispiels ersetzt werden. Ferner kann die Konfiguration eines Beispiels zur Konfiguration eines weiteren Beispiels hinzugefügt werden.
-
Bezüglich einiger Komponenten in den Beispielen können andere Komponenten hinzugefügt, gelöscht oder ersetzt werden.
-
Außerdem können einige oder alle der oben beschriebenen Konfigurationen, Funktionen, Verarbeitungseinheiten, Verarbeitungsmittel und dergleichen durch Hardware realisiert sein, indem sie z. B. mit einer integrierten Schaltung entworfen sind, oder können durch Software realisiert sein, indem ein Prozessor ein Programm zum Realisieren jeder Funktion interpretiert und ausführt.
-
Informationen wie etwa ein Programm, eine Tabelle und eine Datei, die jede Funktion realisieren, können in einem Datenspeicher, einer Speichervorrichtung wie etwa einer Festplatte und einem Festkörperlaufwerk (SSD) oder einem Aufzeichnungsmedium wie etwa einer IC-Karte, einer SD-Karte und einer DVD gespeichert sein.
-
Steuerleitungen und Informationsleitungen, die für die Beschreibungen als notwendig erachtet werden, sind veranschaulicht, und es sind nicht notwendigerweise alle Steuerleitungen und Informationsleitungen im Zusammenbau gezeigt. In der Praxis kann in Betracht gezogen werden, dass nahezu alle Komponenten miteinander verbunden sind.
-
Bezugszeichenliste
-
- D001
- Sensor zur Erkennung einer Bewegung des eigenen Fahrzeugs
- D002
- Sensorgruppe zur Erkennung eines externen Bereichs
- D003
- Positionsbestimmungssystem
- D004
- Karteneinheit
- D005
- Eingangskommunikationsnetz
- D006
- Sensorerkennungs-Integrationsvorrichtung
- D007
- Vorrichtung zur Bestimmung eines Plans zum autonomen Fahren
- D008
- Aktorengruppe
- D009
- Informationsspeichereinheit
- D010
- Sensorgegenstandsinformationen-Integrationseinheit
- D011
- Integrationseinheit für Umgebungsinformationen des eigenen Fahrzeugs
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-
- JP 2018097765 A [0002, 0003]