DE112022001582T5 - Autonomes Fahrzeug - Google Patents

Autonomes Fahrzeug Download PDF

Info

Publication number
DE112022001582T5
DE112022001582T5 DE112022001582.9T DE112022001582T DE112022001582T5 DE 112022001582 T5 DE112022001582 T5 DE 112022001582T5 DE 112022001582 T DE112022001582 T DE 112022001582T DE 112022001582 T5 DE112022001582 T5 DE 112022001582T5
Authority
DE
Germany
Prior art keywords
reliability
self
unit
road surface
feature points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112022001582.9T
Other languages
English (en)
Inventor
Takashi Uno
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Industries Corp
Original Assignee
Toyota Industries Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Industries Corp filed Critical Toyota Industries Corp
Publication of DE112022001582T5 publication Critical patent/DE112022001582T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Navigation (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

Ein autonomes Fahrzeug umfasst eine Straßenoberflächenbild-Erhaltungsvorrichtung, eine Speichereinheit, die Kartendaten speichert, eine Schätzeinheit, die eine Selbstposition schätzt, und eine Bestimmungseinheit, die so konfiguriert ist, dass sie einen Zuverlässigkeitsbestimmungsprozess zur Bestimmung einer Zuverlässigkeit der Selbstposition ausführt. Der Zuverlässigkeitsbestimmungsprozess umfasst einen Prozess des Bestimmens, ob die Schätzeinheit in einem Zustand ist, der in der Lage ist, die Selbstposition zu schätzen, und einen Prozess des Bestimmens, ob eine Anzahl von Übereinstimmungen zwischen den aus den Kartendaten extrahierten Merkmalspunkten und den aus den Fahrdaten extrahierten Merkmalspunkten einen vorbestimmten Schwellenwert erreicht. Die Bestimmungseinheit ist so konfiguriert, dass sie die Zuverlässigkeit der Selbstposition auf der Grundlage von Ergebnissen von Prozessen bestimmt, die in dem Zuverlässigkeitsbestimmungsprozess umfasst sind.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Offenbarung betrifft ein autonomes Fahrzeug.
  • HINTERGRUND
  • Die Patentliteratur 1 offenbart ein Verfahren zur Schätzung der eigenen Position einer beweglichen Einheit unter Verwendung eines Straßenoberflächenbildes. Die bewegliche Einheit ist mit einer Kamera zum Aufnehmen von Bildern der darunter liegenden Fahrbahnoberfläche ausgestattet. Die mobile Einheit schätzt die eigene Position durch den Vergleich von Merkmalspunkten, die aus einem im Voraus aufgenommenen Bild und einem aktuell aufgenommenen Bild erkannt wurden.
  • ZITATENLISTE
  • Patentliteratur
  • Patentliteratur 1: Japanische Patentveröffentlichungsschrift Nr. 2016-166853
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Technische Aufgabenstellung
  • Da das Verfahren der Patentliteratur 1 keine Überprüfung umfasst, ob die geschätzte Selbstposition korrekt ist, kann die Zuverlässigkeit des Ergebnisses der Schätzung des Selbstpositionsergebnisses nicht garantiert werden.
  • Lösung der Aufgabenstellung
  • Gemäß einem Aspekt der vorliegenden Offenbarung umfasst ein autonomes Fahrzeug eine Straßenoberflächenbild-Erhaltungsvorrichtung, eine Speichereinheit, eine Schätzungseinheit und eine Bestimmungsvorrichtung. Die Straßenoberflächenbild-Erhaltungsvorrichtung befindet sich auf einer Unterseite einer Fahrzeugkarosserie und ist so konfiguriert, dass sie ein Straßenoberflächenbild erhält. Das Straßenoberflächenbild ist ein Bild einer Straßenoberfläche unterhalb der Fahrzeugkarosserie. Die Speichereinheit speichert Kartendaten, in denen Positionskoordinaten und eine Ausrichtung der Fahrzeugkarosserie miteinander verknüpft sind. Die Schätzeinheit ist so konfiguriert, dass sie eine Selbstposition durch Vergleich von Merkmalspunkten, die aus Fahrdaten extrahiert wurden, und Merkmalspunkten, die aus den Kartendaten extrahiert wurden, schätzt. Die Fahrdaten sind das Straßenoberflächenbild, das durch die Straßenoberflächenbild-Erhaltungsvorrichtung erhalten wird, und die Kartendaten sind ein Kartenbild. Die Bestimmungseinheit ist so konfiguriert, dass sie einen Zuverlässigkeitsbestimmungsprozess zum Bestimmen einer Zuverlässigkeit der von der Schätzeinheit geschätzten Eigenortung ausführt. Der Zuverlässigkeitsschätzvorrichtung-Prozess umfasst einen Prozess des Bestimmens, ob die Schätzeinheit in einem Zustand ist, der in der Lage ist, die Selbstposition zu schätzen, und einen Prozess des Bestimmens, falls die Selbstposition geschätzt werden kann, ob eine Anzahl von Übereinstimmungen zwischen den Merkmalspunkten, die aus den Kartendaten extrahiert wurden, und den Merkmalspunkten, die aus den Fahrdaten extrahiert wurden, wenn die Schätzeinheit die Selbstposition schätzt, eine vorbestimmte Schwelle erreicht. Die Bestimmungseinheit ist so konfiguriert, dass sie die Zuverlässigkeit der von der Schätzeinheit geschätzten Selbstposition auf der Grundlage von Ergebnissen von Prozessen bestimmt, die in den Zuverlässigkeitsbestimmungsprozess umfasst sind.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
    • 1 ist eine Seitenansicht eines autonomen Fahrzeugs.
    • 2 ist ein Blockdiagramm, das eine elektrische Konfiguration des in 1 dargestellten autonomen Fahrzeugs zeigt.
    • 3 ist ein Flussdiagramm, das einen Zuverlässigkeitsbestimmungsprozess illustriert.
    • 4 ist ein Flussdiagramm zur Veranschaulichung eines Verfahrens zur Bestimmung der Zuverlässigkeit.
    • 5 ist ein Flussdiagramm zur Veranschaulichung eines Verfahrens zur Bestimmung der Zuverlässigkeit.
    • 6 ist ein Flussdiagramm zur Veranschaulichung eines Verfahrens zur Bestimmung der Zuverlässigkeit.
    • 7 ist ein Flussdiagramm zur Veranschaulichung eines Verfahrens zur Bestimmung der Zuverlässigkeit.
  • BESCHREIBUNG DER AUSFÜHRUNGSFORMEN
  • Ein autonomes Fahrzeug 10 gemäß einer Ausführungsform wird nun mit Bezug auf die 1 bis 7 beschrieben.
  • Wie in 1 gezeigt, umfasst das autonome Fahrzeug 10 eine Fahrzeugkarosserie 11, zwei Antriebsräder 12, die an einem unteren Abschnitt der Fahrzeugkarosserie 11 angeordnet sind, und zwei gelenkte Räder 13, die an dem unteren Abschnitt der Fahrzeugkarosserie 11 angeordnet sind. Das autonome Fahrzeug 10 fährt durch Drehung der Antriebsräder 12 und wird durch Änderung der Richtung der gelenkten Räder 13 gelenkt.
  • Wie in 2 dargestellt, umfasst das autonome Fahrzeug 10 eine Steuereinheit 20, Motortreiber 21, 22, einen Fahrmotor 23 und einen Lenkmotor 24. Die Steuereinheit 20 steuert den Fahrmotor 23 über den Motortreiber 21, wodurch die Antriebsräder 12 angetrieben werden. Die Steuereinheit 20 steuert den Lenkmotor 24 über den Motortreiber 22, wodurch die gelenkten Räder 13 angetrieben werden.
  • Wie in 2 dargestellt, umfasst die Steuereinheit 20 eine Verarbeitungseinheit 30 und eine Speichereinheit 40. Die Speichereinheit 40 speichert verschiedene Programme zur Steuerung des autonomen Fahrzeugs 10.
  • Die Steuereinheit 20 kann zugeordnete Hardware umfassen, beispielsweise eine anwendungsspezifische integrierte Schaltung (ASIC), die zumindest einen Abschnitt der verschiedenen Prozesse ausführt. Die Steuereinheit 20 kann eine Schaltung sein, die einen oder mehrere Prozessoren umfasst, die nach einem Computerprogramm arbeiten, eine Schaltung, die eine oder mehrere zugeordnete Hardware-Schaltungen wie beispielsweise einen ASIC umfasst, oder eine Kombination davon. Der Prozessor umfasst eine CPU und einen Speicher, beispielsweise RAM und ROM. Der Speicher speichert Programmcode oder Anweisungen, die so konfiguriert sind, dass sie die CPU veranlassen, Prozesse auszuführen. Der Speicher oder das computerlesbare Medium umfasst jede Art von Medium, auf das Allzweckcomputer und spezielle Computer zugreifen können.
  • Die Steuereinheit 20 betreibt das autonome Fahrzeug 10 durch Steuerung des Fahrmotors 23 und des Lenkmotors 24 in Übereinstimmung mit den in der Speichereinheit 40 gespeicherten Programmen. Das autonome Fahrzeug 10 wird nicht von einem Insassen bedient und verwendet die Steuereinheit 20 zur automatischen Steuerung seines Fahrens und Lenkens.
  • Wie in 1 dargestellt, umfasst das autonome Fahrzeug 10 einen Lidar-Scanner (Light-Detection-and-Ranging oder Laser-Imaging-Detection-and-Ranging) 50 als Datenerfassungsvorrichtung für die Selbstpositionsschätzung, eine Straßenoberflächenbild-Erfassungsvorrichtung (60) und eine GPS-Antenne (70).
  • Der Lidar-Scanner 50 ist auf der Oberseite der Fahrzeugkarosserie 11 installiert. Der Lidar-Scanner 50 umfasst eine Bestrahlungseinheit, die die Umgebung des autonomen Fahrzeugs 10 mit einem Laserstrahl bestrahlt, und eine Lichtempfangseinheit, die das reflektierte Licht empfängt. Die Laserbestrahlung deckt einen Bereich von insgesamt 270 Grad ab, beispielsweise 135 Grad auf der rechten Seite und 135 Grad auf der linken Seite, bezogen auf die Fahrtrichtung des autonomen Fahrzeugs 10. Der Lidar-Scanner 50 misst den Abstand zu einem Objekt in Verbindung mit dem Einstrahlungswinkel des Lasers während des Scannens. Der Lidar-Scanner 50 kann ein zweidimensionaler Typ sein, der eine Objekterkennung in der horizontalen Richtung durchführt, oder ein dreidimensionaler Typ, der eine Objekterkennung in der horizontalen und der vertikalen Richtung durchführt.
  • Wie in 2 dargestellt, ist der Lidar-Scanner 50 mit der Steuereinheit 20 verbunden. Die Steuereinheit 20 empfängt die vom Lidar-Scanner 50 erhaltenen Messdaten. Dadurch kann die Steuereinheit 20 die Entfernung zu einem in der Umgebung vorhandenen Objekt erkennen, indem sie die Zeit von der Einstrahlung des Lasers bis zum Empfang des Lasers misst. Das heißt, die Steuereinheit 20 kann die Umgebung des autonomen Fahrzeugs 10 erfassen.
  • Wie in den 1 und 2 gezeigt, ist die Kamera 60 zur Aufnahme der Fahrbahnoberfläche an der Unterseite der Fahrzeugkarosserie 11 angebracht. Die Straßenoberflächenerfassungskamera 60 nimmt Bilder einer Straßenoberfläche Sr unterhalb der Fahrzeugkarosserie 11 auf. Das autonome Fahrzeug 10 umfasst Lichtquellen 61, 62 zur Beleuchtung und einen Beleuchtungstreiber 63. Die Lichtquellen 61, 62 sind an der Unterseite der Fahrzeugkarosserie 11 so angebracht, dass sie die Straßenoberflächenerfassungskamera 60 umgeben. Bei den Lichtquellen 61, 62 handelt es sich beispielsweise um lichtemittierende Dioden. Die Steuereinheit 20 steuert die Lichtquellen 61, 62 über die Beleuchtungssteuerung 63. Die Lichtquellen 61, 62 werden synchron mit dem Aufnahmezeitpunkt der Straßenoberflächenkamera 60 eingeschaltet. Die eingeschalteten Lichtquellen 61, 62 bestrahlen einen Bildaufnahmebereich der Straßenoberflächenerfassungskamera 60.
  • Wie in 1 dargestellt, ist die GPS-Antenne 70 an der Oberseite der Fahrzeugkarosserie 11 angebracht. Die GPS-Antenne 70 empfängt Funkwellen von künstlichen Satelliten. Wie in 2 dargestellt, ist das autonome Fahrzeug 10 mit einem GPS-Empfänger 71 ausgestattet. Die GPS-Antenne 70 ist über den GPS-Empfänger 71 mit der Steuereinheit 20 verbunden. Die Steuereinheit 20 empfängt die von der GPS-Antenne 70 erhaltenen Vermessungsinformationen.
  • Wie in 2 dargestellt, umfasst die Verarbeitungseinheit 30 der Steuereinheit 20 eine Lidar-Selbstortungsschätzeinheit 31 (im Folgenden als erste Schätzeinheit 31 bezeichnet), eine Straßenoberflächenerfassungskamera-Selbstortungsschätzeinheit 32 (im Folgenden als zweite Schätzeinheit 32 bezeichnet) und eine GPS-Selbstortungsschätzeinheit 33 (im Folgenden als dritte Schätzeinheit 33 bezeichnet).
  • Die Speichereinheit 40 speichert Umgebungsdaten als Kartendaten 41. Die Umgebungsdaten werden in einem Zustand erzeugt, in dem sie mit geografischen Positionsinformationen verknüpft sind. Die Speichereinheit 40 speichert als die Kartendaten 41 ein Kartenbild. Das Kartenbild ist ein Bild der Straßenoberfläche Sr, das zuvor aufgenommen wurde. Das Kartenbild wird erstellt, während es mit geographischen Positionsinformationen verknüpft ist. Wie oben beschrieben, umfasst das autonome Fahrzeug 10 die Speichereinheit 40, die an der Fahrzeugkarosserie 11 installiert ist und die Kartendaten 41 speichert, in denen die Positionskoordinaten und die Orientierung der Fahrzeugkarosserie 11 miteinander verknüpft sind.
  • Die erste Schätzeinheit 31 schätzt die eigene Position des autonomen Fahrzeugs 10, indem sie aus den Umgebungsdaten extrahierte Merkmalspunkte mit aus den Kartendaten 41 in der Speichereinheit 40 extrahierten Merkmalspunkten vergleicht. Die Umgebungsdaten werden von dem Lidar-Scanner 50 gemessen. Die Selbstposition umfasst die Positionskoordinaten und die Ausrichtung der Fahrzeugkarosserie 11. Die Positionskoordinaten der Fahrzeugkarosserie 11 sind Koordinaten, die einen Punkt auf der Fahrzeugkarosserie 11 angeben und sind beispielsweise Koordinaten an der Installationsposition des Lidar-Scanners 50 in horizontaler Richtung der Fahrzeugkarosserie 11. Insbesondere erkennt die erste Schätzeinheit 31 Merkmalspunkte aus der Umgebung zum aktuellen Zeitpunkt und erkennt Merkmalsbeträge der Merkmalspunkte, d.h. Merkmalsbeträge, die die Größe der Leuchtdichte um die Merkmalspunkte darstellen. In ähnlicher Weise erkennt die erste Schätzeinheit 31 Merkmalspunkte aus den im Voraus erhaltenen Kartendaten 41 und erkennt die Merkmalsbeträge der Merkmalspunkte, d. h. Merkmalsbeträge, die den Grad der Größe der Leuchtdichte um den Merkmalspunkt herum darstellen. Dann schätzt die erste Schätzeinheit 31 die eigene Position des autonomen Fahrzeugs 10, indem sie den Merkmalsbetrag jedes Merkmalspunkts in der Umgebung zum aktuellen Zeitpunkt mit dem Merkmalsbetrag jedes Merkmalspunkts in den im Voraus erhaltenen Kartendaten 41 vergleicht.
  • Die Kartendaten 41 können im Voraus in der Speichereinheit 40 gespeichert werden. In diesem Fall werden die Koordinaten der Umgebung als Umgebungskarte gespeichert. Die Umgebungskarte wird durch simultane Lokalisierung und Kartierung (SLAM) erzeugt. SLAM führt gleichzeitig eine Selbstpositionsschätzung eines beweglichen Körpers durch und erzeugt eine Umgebungskarte, so dass ein beweglicher Körper eine Umgebungskarte in einer unbekannten Umgebung erzeugen kann. Die erstellten Karteninformationen werden für die Ausführung bestimmter Aufgaben verwendet. Bei der Durchführung der Selbstpositionsschätzung schätzt die Schätzeinheit 31 die Selbstposition des autonomen Fahrzeugs 10, indem sie die von dem Lidar-Scanner 50 erhaltene Umgebung mit den im Voraus erhaltenen Kartendaten 41 vergleicht.
  • Die zweite Schätzeinheit 32 schätzt die Selbstposition des autonomen Fahrzeugs 10 durch Vergleich von Merkmalspunkten, die aus Fahrdaten extrahiert wurden, mit Merkmalspunkten, die aus den Kartendaten 41 in der Speichereinheit 40 extrahiert wurden. Die Fahrdaten sind ein Bild der Straßenoberfläche Sr, das von der Straßenoberflächenerfassungskamera 60 aufgenommen wurde. Die Eigenortung umfasst die Positionskoordinaten und die Ausrichtung der Fahrzeugkarosserie 11. Die Positionskoordinaten der Fahrzeugkarosserie 11 sind Koordinaten, die einen Punkt auf der Fahrzeugkarosserie 11 angeben und sind beispielsweise Koordinaten an der Einbauposition der Straßenoberflächenerfassungskamera 60 in horizontaler Richtung der Fahrzeugkarosserie 11. Insbesondere erkennt die zweite Schätzeinheit 32 Merkmalspunkte aus einem Bild, das das Straßenoberflächenbild zum aktuellen Zeitpunkt ist, und erkennt Merkmalsbeträge der Merkmalspunkte, d.h. Merkmalsbeträge, die die Größe der Luminanz an Pixeln um Pixel mit den Merkmalspunkten darstellen. In ähnlicher Weise erkennt die zweite Schätzeinheit 32 Merkmalspunkte aus einem Kartenbild, das im Voraus aufgenommen wurde, und erkennt die Merkmalsbeträge der Merkmalspunkte, d.h. Merkmalsbeträge, die die Größe der Leuchtdichte an Pixeln um Pixel mit den Merkmalspunkten darstellen. Dann schätzt die zweite Schätzeinheit 32 die eigene Position des autonomen Fahrzeugs 10, indem sie den Merkmalsbetrag jedes Merkmalspunktes in dem Straßenoberflächenbild zum aktuellen Zeitpunkt mit dem Merkmalsbetrag jedes Merkmalspunktes in dem im Voraus aufgenommenen Kartenbild vergleicht.
  • Die Kartendaten (Kartenbild) 41 können im Voraus in der Speichereinheit 40 gespeichert werden. In diesem Fall werden die Koordinaten der Muster auf der Straßenoberfläche Sr als Umgebungskarte gespeichert. Die Umgebungskarte wird durch simultane Lokalisierung und Kartierung (SLAM) erzeugt. SLAM führt gleichzeitig eine Selbstpositionsschätzung eines beweglichen Körpers durch und erzeugt eine Umgebungskarte, so dass ein beweglicher Körper eine Umgebungskarte in einer unbekannten Umgebung erzeugen kann. Die erstellten Karteninformationen werden für die Ausführung bestimmter Aufgaben verwendet. Bei der Durchführung der Selbstpositionsschätzung schätzt die zweite Schätzeinheit 32 die Selbstposition des autonomen Fahrzeugs 10, indem sie das von einer Kamera erhaltene Straßenoberflächenbild mit dem im Voraus erhaltenen Kartenbild vergleicht.
  • Die dritte Schätzeinheit 33 schätzt die Selbstposition des autonomen Fahrzeugs 10 anhand der von der GPS-Antenne 70 erhaltenen Vermessungsinformationen. Die Selbstposition umfasst die Positionskoordinaten und die Ausrichtung der Fahrzeugkarosserie 11. Die Positionskoordinaten der Fahrzeugkarosserie 11 sind Koordinaten, die einen Punkt auf der Fahrzeugkarosserie 11 angeben und sind beispielsweise Koordinaten an der Installationsposition der GPS-Antenne 70 in horizontaler Richtung der Fahrzeugkarosserie 11.
  • Die Steuereinheit 20 steuert den Fahrmotor 23 und den Lenkmotor 24, während sie eine Selbstpositionsschätzung durchführt, um den Standort des autonomen Fahrzeugs 10 auf der Karte zu schätzen. Dadurch ist es möglich, das autonome Fahrzeug 10 an einen gewünschten Ort zu bewegen.
  • Das autonome Fahrzeug 10 ist so konfiguriert, dass es einen Zuverlässigkeitsbestimmungsprozess der geschätzten Selbstposition durchführt. Das autonome Fahrzeug 10 bestimmt die Zuverlässigkeit der von der zweiten Schätzeinheit 32 geschätzten Selbstposition. Der Zuverlässigkeitsbestimmungsprozess wird von einer Bestimmungseinheit 34 ausgeführt, die in der Verarbeitungseinheit 30 umfasst ist.
  • Nachfolgend wird unter Bezugnahme auf die 3 bis 7 das Zuverlässigkeitsbestimmungsprozess der Selbstposition, das in dem autonomen Fahrzeug 10 gemäß der vorliegenden Ausführungsform ausgeführt wird, zusammen mit seiner Funktionsweise beschrieben.
  • In Schritt S10 ermittelt die Bestimmungseinheit 34, ob die zweite Schätzeinheit 32 die Selbstortung in einem Zustand schätzt, in dem die zweite Schätzeinheit 32 in der Lage ist, die Selbstortung zu schätzen. Genauer gesagt vergleicht die Bestimmungseinheit 34 aus dem Bild der Straßenoberfläche Sr extrahierte Merkmalspunkte mit aus den Kartendaten 41 extrahierten Merkmalspunkten. Nach einem solchen Abgleich von Merkmalspunkten bestimmt die Bestimmungseinheit 34, ob die Anzahl der Übereinstimmungen, aus denen Ausreißer entfernt wurden, größer oder gleich einer bestimmten Anzahl ist. Die Ausreißerentfernung kann beispielsweise durch LMedS (Least-Median-Of-Squares) und RANSAC (Random-Sample-Consensus) durchgeführt werden. Wenn die Anzahl der Übereinstimmungen größer oder gleich der bestimmten Anzahl ist, bestimmt die Bestimmungseinheit 34, dass die Schätzung des eigenen Standorts möglich ist, und fährt mit Schritt S11 fort. Wenn die Anzahl der Übereinstimmungen kleiner als die bestimmte Anzahl ist, bestimmt die Bestimmungseinheit 34, dass die Selbstortschätzung nicht möglich ist, und fährt mit Schritt S24a fort.
  • Wenn die Bestimmungseinheit 34 mit Schritt S24a fortfährt, bestimmt sie die Zuverlässigkeit der von der zweiten Schätzeinheit 32 geschätzten Eigenortung als Zuverlässigkeit MIN. Die Zuverlässigkeit MIN ist die niedrigste Zuverlässigkeit als ein von der Bestimmungseinheit 34 ermitteltes Niveau der Zuverlässigkeit. Die Bestimmungseinheit 34, die im Schritt S24a die Zuverlässigkeit MIN bestimmt hat, beendet den Prozess der Bestimmung der Zuverlässigkeit der Selbstortung.
  • Beim Weitergehen zu Schritt S11 bestimmt die Bestimmungseinheit 34, ob die Anzahl der Übereinstimmungen zu dem Zeitpunkt, zu dem die zweite Schätzeinheit 32 die Selbstposition schätzt, größer oder gleich einem vorbestimmten Schwellenwert ist. Der in Schritt S11 verwendete Schwellenwert wird auf eine Anzahl von Übereinstimmungen festgelegt, die einem Zielwert für die Genauigkeit beim Fahren und Anhalten entspricht, und zwar unabhängig von Schwellenwerten, die in Prozessen in anderen Schritten verwendet werden. Der Zielwert wird beispielsweise in Abhängigkeit von der Art des autonomen Fahrzeugs 10 oder dem Ort, an dem das autonome Fahrzeug 10 fährt, bestimmt. Wenn die Anzahl der Übereinstimmungen größer oder gleich dem Schwellenwert ist, fährt die Bestimmungseinheit 34 mit Schritt S12 fort. Wenn die Anzahl der Übereinstimmungen kleiner als der Schwellenwert ist, geht die Bestimmungseinheit 34 zu Schritt S24b über und bestimmt, dass die Zuverlässigkeit der geschätzten eigenen Position MIN+1 ist. Die Zuverlässigkeit MIN+1 ist ein Niveau höher als die Zuverlässigkeit MIN. Nach dem Vorgang des Schrittes S24b beendet die Bestimmungseinheit 34 den Vorgang der Bestimmung der Zuverlässigkeit der Selbstortung.
  • Beim Weitergehen zu Schritt S12 berechnet die Bestimmungseinheit 34 die Verteilung der Merkmalspunkte der Kartendaten 41, aus denen die Merkmalspunkte extrahiert wurden, als die zweite Schätzeinheit 32 die Selbstposition schätzte. Anschließend bestimmt die Bestimmungseinheit 34 in Schritt S13, ob die berechnete Verteilung der Merkmalspunkte der Kartendaten 41 ungleichmäßig ist. Wenn die Verteilung der Merkmalspunkte ungleichmäßig ist, besteht die Möglichkeit, dass das Matching mit falschen Merkmalspunkten erstellt wird, und daher werden die Prozesse der Schritte S12, S13 ausgeführt, um festzustellen, ob die Verteilung ungleichmäßig ist. Wenn die Verteilung der Merkmalspunkte nicht ungleichmäßig ist, fährt die Bestimmungseinheit 34 mit Schritt S14 fort. Die Bestimmungseinheit 34 stellt fest, dass die Verteilung nicht ungleichmäßig ist, wenn die Merkmalspunkte nicht in konzentrierter Weise in einem Abschnitt erkannt werden, in dem die Pixelwerte des Kartenbildes, d. h. der Kartendaten 41, niedrig sind. Andererseits, wenn die Verteilung der Merkmalspunkte ungleichmäßig ist, geht die Bestimmungseinheit 34 zu Schritt S24c über und bestimmt, dass die Zuverlässigkeit der geschätzten Selbstposition Zuverlässigkeit MIN+2 ist. Die Zuverlässigkeit MIN+2 ist ein Niveau höher als die Zuverlässigkeit MIN+1. Die Bestimmungseinheit 34 bestimmt, dass die Verteilung ungleichmäßig ist, wenn die Merkmalspunkte in konzentrierter Weise in einem Abschnitt erkannt werden, in dem die Pixelwerte des Kartenbildes, d.h. der Kartendaten 41, niedrig sind. Nach dem Prozess des Schrittes S24c beendet die Bestimmungseinheit 34 den Prozess der Bestimmung der Zuverlässigkeit der Selbstposition.
  • Beim Fortfahren mit Schritt S14 berechnet die Bestimmungseinheit 34 die Verteilung der Merkmalspunkte der Fahrdaten, aus denen die Merkmalspunkte extrahiert wurden, als die zweite Schätzeinheit 32 die Selbstposition schätzte. Anschließend bestimmt die Bestimmungseinheit 34 in Schritt S15, ob die berechnete Verteilung der Merkmalspunkte der Fahrdaten ungleichmäßig ist. Wenn die Verteilung der Merkmalspunkte ungleichmäßig ist, besteht die Möglichkeit, dass das Matching mit falschen Merkmalspunkten erstellt wird, und daher werden die Prozesse der Schritte S14, S15 ausgeführt, um festzustellen, ob die Verteilung ungleichmäßig ist. Wenn die Verteilung der Merkmalspunkte nicht ungleichmäßig ist, fährt die Bestimmungseinheit 34 mit Schritt S16 fort. Die Bestimmungseinheit 34 bestimmt, dass die Verteilung nicht ungleichmäßig ist, wenn die Merkmalspunkte nicht in konzentrierter Weise in einem Abschnitt erkannt werden, in dem die Pixelwerte des Bildes der Straßenoberfläche Sr, die die Fahrdaten sind, niedrig sind. Andererseits, wenn die Verteilung der Merkmalspunkte ungleichmäßig ist, geht die Bestimmungseinheit 34 zu Schritt S24d über und bestimmt, dass die Zuverlässigkeit der geschätzten Selbstposition Zuverlässigkeit MIN+3 ist. Die Zuverlässigkeit MIN+3 ist ein Niveau höher als die Zuverlässigkeit MIN+2. Die Bestimmungseinheit 34 bestimmt, dass die Verteilung ungleichmäßig ist, wenn die Merkmalspunkte in konzentrierter Weise in einem Abschnitt erkannt werden, in dem die Pixelwerte des Bildes der Straßenoberfläche Sr, die die Fahrdaten sind, niedrig sind. Nach dem Vorgang des Schrittes S24d beendet die Bestimmungseinheit 34 den Vorgang der Bestimmung der Zuverlässigkeit der Selbstortung.
  • Beim Weitergehen zu Schritt S16 berechnet die Bestimmungseinheit 34 einen relativen Abstand zwischen dem Straßenoberflächenbild und dem Kartenbild zu dem Zeitpunkt, zu dem die zweite Schätzeinheit 32 den Abgleichprozess durchgeführt hat. Anschließend bestimmt die Bestimmungseinheit 34, ob der in Schritt S17 berechnete relative Abstand kleiner als ein Schwellenwert ist. Der in Schritt S17 verwendete Schwellenwert wird getrennt von den Schwellenwerten bestimmt, die in den Prozessen der anderen Schritte verwendet werden. Der in Schritt S17 verwendete Schwellenwert ist ein Wert, der Abständen zugehört, die auf einen Wert größer oder gleich der Hälfte des effektiven Bereichs des Bildes eingestellt sind. Wenn der relative Abstand kleiner als der Schwellenwert ist, geht die Bestimmungseinheit 34 zu Schritt S18 über. Wenn der relative Abstand größer oder gleich dem Schwellenwert ist, fährt die Bestimmungseinheit 34 mit Schritt S29 in 5 fort. Der relative Abstand, der kleiner als der Schwellenwert ist, gehört dazu, dass der relative Abstand zwischen dem Straßenoberflächenbild und dem Kartenbild relativ gering ist.
  • Wenn die Bestimmungseinheit 34 zu Schritt S18 übergeht, prüft sie den letzten Zeitpunkt des von der zweiten Schätzeinheit 32 durchgeführten Abgleichs. Anschließend bestimmt die Bestimmungseinheit 34 in Schritt S19, ob die verstrichene Zeit kürzer als ein Schwellenwert ist. Die verstrichene Zeit bezieht sich auf die Differenz zwischen dem Zeitpunkt des vorherigen Abgleichs und dem Zeitpunkt des letzten Abgleichs. Der Zeitpunkt des vorherigen Abgleichs wird in der Speichereinheit 40 gespeichert. Der in Schritt S19 verwendete Schwellenwert wird unabhängig von den in anderen Schritten verwendeten Schwellenwerten bestimmt. Der in Schritt S19 verwendete Schwellenwert gehört zu der Zeit, die durch Vergleich der Differenz zwischen dem Zeitpunkt des vorherigen Abgleichs und dem Zeitpunkt des letzten Abgleichs mit der Abtastzeit zum Zeitpunkt der Aufnahme des Straßenoberflächenbildes berechnet wird. Wenn die verstrichene Zeit kürzer als der Schwellenwert ist, geht die Bestimmungseinheit 34 zu Schritt S20 über. Wenn die verstrichene Zeit länger als oder gleich dem Schwellenwert ist, geht die Bestimmungseinheit 34 zu Schritt S25 in 4 über.
  • Wenn die Bestimmungseinheit 34 mit Schritt S20 fortfährt, prüft sie eine Sortiernummer, die dem Kartenbild zugeordnet ist, in dem die Übereinstimmung festgestellt wurde. Anschließend bestimmt die Bestimmungseinheit 34 in Schritt S21, ob die überprüfte Sortiernummer kleiner als ein Schwellenwert ist. Mehrere Kartenbilder werden als Kartendaten 41 gespeichert. Jedem Kartenbild ist eine Identifikationsnummer zur Identifizierung des Bildes beigefügt. Die Bestimmungseinheit 34 ordnet die Kartenbilder in der Reihenfolge ihrer Nähe zur letzten eigenen Position neu an. Durch die Neuanordnung der Kartenbilder wird die Prioritätsreihenfolge der Kartenbilder bestimmt, die im Abgleichsprozess zur Schätzung der eigenen Position verglichen werden sollen. Die neu angeordneten Kartenbilder werden entsprechend der Prioritätsreihenfolge mit Sortiernummern versehen.
  • In Schritt S20 prüft die Bestimmungseinheit 34 die Sortiernummer des Kartenbildes, in dem der Abgleich gemäß der Prioritätsreihenfolge der neu angeordneten Kartenbilder durchgeführt wird. Die Bestimmungseinheit 34 fährt mit Schritt S22 fort, wenn die Sortiernummer des Kartenbildes, in dem eine Übereinstimmung festgestellt wird, kleiner ist als ein Schwellenwert in Schritt S21. Im Gegensatz dazu geht die Bestimmungseinheit 34 zu Schritt S23 über, wenn die Sortiernummer des Kartenbildes, bei dem eine Übereinstimmung festgestellt wird, kleiner als der Schwellenwert in Schritt S21 ist. Der in Schritt S21 verwendete Schwellenwert wird getrennt von den Schwellenwerten bestimmt, die in den Prozessen der anderen Schritte verwendet werden. Der in Schritt S21 verwendete Schwellenwert ist beispielsweise 3 als Sortiernummer und gehört zu einer Reihenfolge, die beispielsweise so bestimmt wird, dass geprüft werden kann, ob die Übereinstimmung in der Nähe des Kartenbildes mit der höchsten Prioritätsreihenfolge hergestellt wird. In Schritt S21, wenn die Übereinstimmung in den ersten bis dritten Kartenbildern unter den neu angeordneten Kartenbildern hergestellt ist, bestimmt die Bestimmungseinheit 34, dass die Übereinstimmung in Kartenbildern mit hoher Prioritätsreihenfolge hergestellt ist, und bestimmt, dass die Zuverlässigkeit hoch ist. In Schritt S21, wenn die Übereinstimmung in den ersten bis dritten Kartenbildern unter den neu angeordneten Kartenbildern nicht hergestellt ist, bestimmt die Bestimmungseinheit 34, dass die Übereinstimmung in Kartenbildern mit niedriger Prioritätsreihenfolge hergestellt ist, und bestimmt, dass die Zuverlässigkeit niedrig ist. Wenn trotz der Neuanordnung der Kartenbilder keine Übereinstimmung in Kartenbildern mit hoher Priorität hergestellt wird, wird davon ausgegangen, dass ein Fehler in der letzten Selbstposition oder ein Fehler in dem mit den Kartenbildern verknüpften Ort vorliegt.
  • Beim Weitergehen zu Schritt S22 bestimmt die Bestimmungseinheit 34, dass die Zuverlässigkeit der von der zweiten Schätzeinheit 32 geschätzten Selbstortung die Zuverlässigkeit MAX ist. Die Zuverlässigkeit MAX ist die höchste Zuverlässigkeit auf einem von der Bestimmungseinheit 34 bestimmten Niveau. Beim Weitergehen zu Schritt S23 bestimmt die Bestimmungseinheit 34, dass die Zuverlässigkeit der von der zweiten Schätzeinheit 32 geschätzten Selbstposition die Zuverlässigkeit MAX-1 ist, die ein Niveau niedriger als die Zuverlässigkeit MAX ist. Nach dem Verfahren von Schritt S22 oder Schritt S23 beendet die Bestimmungseinheit 34 das Zuverlässigkeitsbestimmungsprozess der Selbstortung.
  • Beim Übergang von Schritt S19 zu Schritt S25 in 4 führt die Bestimmungseinheit 34 die Prozesse der Schritte S25, S26 aus. Die Prozesse der Schritte S25, S26 sind die gleichen wie die Prozesse der Schritte S20, S21 in 3. Beim Fortschreiten zu Schritt S27 stellt die Bestimmungseinheit 34 fest, dass die Zuverlässigkeit der von der zweiten Schätzeinheit 32 geschätzten Selbstposition die Zuverlässigkeit MAX-2 ist, die zwei Niveaus niedriger als die Zuverlässigkeit MAX ist. Beim Übergang zu Schritt S28 stellt die Bestimmungseinheit 34 fest, dass die von der zweiten Schätzeinheit 32 geschätzte Zuverlässigkeit der eigenen Position MAX-3 ist, d. h. drei Niveaus niedriger als die Zuverlässigkeit MAX. Nach dem Prozess von Schritt S27 oder Schritt S28 beendet die Bestimmungseinheit 34 den Prozess der Bestimmung der Zuverlässigkeit der Selbstposition.
  • Beim Fortschreiten von Schritt S17 zu Schritt S29 in 5 vergleicht die Bestimmungseinheit 34 die von der zweiten Schätzeinheit 32 geschätzte Eigenortung mit Fahrzeug-Odometrie-Informationen. Die Fahrzeug-Odometrie-Information wird durch Schätzung des Bewegungsbetrags unter Verwendung der Anzahl der Umdrehungen des fahrenden Motors 23 berechnet. Die Fahrzeug-Odometrie-Informationen werden von der Verarbeitungseinheit 30 berechnet. Anschließend bestimmt die Bestimmungseinheit 34 in Schritt S30, ob der relative Abstand zwischen der von der zweiten Schätzeinheit 32 geschätzten Eigenposition und der auf den Fahrzeug-Odometrieinformationen basierenden Eigenposition kleiner als ein vorbestimmter Schwellenwert ist. Der in Schritt S30 verwendete Schwellenwert wird getrennt von dem in Schritt S17 verwendeten Schwellenwert bestimmt, der ebenfalls zum Vergleich eines relativen Abstands verwendet wird. Der in Schritt S30 verwendete Schwellenwert gehört zu den Entfernungen, die auf einen Wert größer oder gleich der effektiven Reichweite des Bildes eingestellt sind. Wenn der relative Abstand kleiner als der Schwellenwert ist, geht die Bestimmungseinheit 34 zu Schritt S31 über. Wenn der relative Abstand größer oder gleich dem Schwellenwert ist, fährt die Bestimmungseinheit 34 mit Schritt S30a fort. In Schritt S30a bestimmt die Bestimmungseinheit 34, dass die Zuverlässigkeit der geschätzten Eigenortung eine Zuverlässigkeit MAX-8 ist, die acht Niveaus niedriger als die Zuverlässigkeit MAX ist. Die Zuverlässigkeit MAX-8 ist höher als die Zuverlässigkeit MIN+3. Nach dem Vorgang des Schrittes S30a beendet die Bestimmungseinheit 34 den Vorgang der Bestimmung der Zuverlässigkeit der Selbstortung.
  • Beim Weitergehen zu Schritt S31 führt die Bestimmungseinheit 34 eine Fehlerbewertung durch. Bei der Fehlerauswertung wird die Genauigkeit der Selbstposition auf der Grundlage der Abweichung von der Genauigkeit der Kartenmessung und der relativen Entfernung berechnet. Anschließend bestimmt die Bestimmungseinheit 34 in Schritt S32, ob ein Bewertungswert der Fehlerbewertung kleiner als ein Schwellenwert ist. Der in Schritt S32 verwendete Schwellenwert wird getrennt von den Schwellenwerten bestimmt, die in den Prozessen der anderen Schritte verwendet werden. Der in Schritt S32 verwendete Schwellenwert wird auf eine beliebige gewünschte Genauigkeit der Zielselbstortung eingestellt. Wenn der Bewertungswert kleiner als der Schwellenwert ist, geht die Bestimmungseinheit 34 zu Schritt S18 in 3 über und führt die nachfolgenden Prozesse aus. Wenn der Prozess zu Schritt S18 über die Schritte S29 bis S32 fortschreitet, erzielt die Schätzung der Selbstposition auf der Grundlage der Fahrzeug-Odometrie ein günstiges Ergebnis. Es wird also festgestellt, dass die Fehler des Schätzungsergebnisses der Selbstposition unter Verwendung von Bildern gering sind. Wenn der Bewertungswert größer oder gleich dem Schwellenwert ist, fährt die Bestimmungseinheit 34 mit Schritt S33 in 6 fort.
  • Wenn die Bestimmungseinheit 34 zu Schritt S33 in 6 übergeht, führt sie die nachfolgenden Prozesse aus. Die Prozesse der Schritte S33 bis S36 sind die gleichen wie die Prozesse der Schritte S18 bis S21 in 1. Beim Übergang zu Schritt S37 über Schritt S36 stellt die Bestimmungseinheit 34 fest, dass die von der zweiten Schätzeinheit 32 geschätzte Zuverlässigkeit der Selbstposition die Zuverlässigkeit MAX-4 ist, die vier Niveaus niedriger als die Zuverlässigkeit MAX ist. Beim Übergang zu Schritt S38 über Schritt S36 stellt die Bestimmungseinheit 34 fest, dass die Zuverlässigkeit der von der zweiten Schätzeinheit 32 geschätzten Eigenortung die Zuverlässigkeit MAX-5 ist, die fünf Niveaus niedriger als die Zuverlässigkeit MAX ist. Nach dem Vorgang des Schrittes S37 oder des Schrittes S38 beendet die Bestimmungseinheit 34 den Vorgang der Bestimmung der Zuverlässigkeit der Selbstortung.
  • Beim Übergang von Schritt S34 zu Schritt S39 in 7 führt die Bestimmungseinheit 34 die nachfolgenden Prozesse aus. Die Prozesse der Schritte S39, S40 sind die gleichen wie die Prozesse der Schritte S20, S21 in 1. Beim Übergang zu Schritt S41 über Schritt S40 stellt die Bestimmungseinheit 34 fest, dass die von der zweiten Schätzeinheit 32 geschätzte Zuverlässigkeit der Selbstposition die Zuverlässigkeit MAX-6 ist, die sechs Niveaus niedriger als die Zuverlässigkeit MAX ist. Beim Übergang zu Schritt S42 über Schritt S40 stellt die Bestimmungseinheit 34 fest, dass die von der zweiten Schätzeinheit 32 geschätzte Zuverlässigkeit des eigenen Standorts die Zuverlässigkeit MAX-7 ist, die sieben Niveaus unter der Zuverlässigkeit MAX liegt. Nach dem Vorgang von Schritt S41 oder Schritt S42 beendet die Bestimmungseinheit 34 den Vorgang der Bestimmung der Zuverlässigkeit der Selbstortung.
  • Wie oben beschrieben, wird die von der zweiten Schätzeinheit 32 geschätzte Zuverlässigkeit der Selbstortung stufenweise bestimmt. Insbesondere wird ein Index zur Berechnung der Zuverlässigkeit aus den Kartendaten 41 und den Fahrdaten gewonnen und mit einem Schwellenwert verglichen, um die Zuverlässigkeit stufenweise unter Verwendung einer Kombination von Merkmalen zu bestimmen, die die Bedingungen erfüllen. Die Zuverlässigkeit kann beispielsweise in dreizehn Stufen definiert werden, nämlich die Zuverlässigkeit MAX, die Zuverlässigkeit MAX-1,..., die Zuverlässigkeit MAX-8, die Zuverlässigkeit MIN+3, die Zuverlässigkeit MIN+2, die Zuverlässigkeit MIN+1 und die Zuverlässigkeit MIN. Die Zuverlässigkeit MIN+3 ist neun Niveaus niedriger als die Zuverlässigkeit MAX. Die Zuverlässigkeit MIN+2 liegt zehn Niveaus niedriger als die Zuverlässigkeit MAX. Die Zuverlässigkeit MIN+1 liegt elf Niveaus niedriger als die Zuverlässigkeit MAX. Die Zuverlässigkeit MIN ist zwölf Niveaus niedriger als die Zuverlässigkeit MAX.
  • Die Verarbeitungseinheit 30 reflektiert die ermittelte Zuverlässigkeit auf die Selbstpositionsschätzung. Die folgenden zwei Methoden sind mögliche Methoden für die Reflexion der ermittelten Zuverlässigkeit. Die Verarbeitungseinheit 30 ist so konfiguriert, dass sie die ermittelte Zuverlässigkeit nach einem der beiden Verfahren wiedergibt.
  • Bei der ersten Methode wird ein Gewichtungsparameter zur Integration mit anderen Messergebnissen und Schätzwerten auf der Grundlage der Zuverlässigkeit angepasst. Beispiele für andere Messergebnisse und Schätzwerte umfassen ein Messergebnis und einen Schätzwert der ersten Schätzungseinheit 31 oder ein Messergebnis und einen Schätzwert der dritten Schätzungseinheit 33. Wenn die Zuverlässigkeit der von der zweiten Schätzungseinheit 32 geschätzten Eigenortung zunimmt, erhöht die Verarbeitungseinheit 30 die Gewichtung des Ergebnisses der Eigenortungsschätzung in der zweiten Schätzungseinheit 32. Wenn andererseits die Zuverlässigkeit der von der zweiten Schätzeinheit 32 geschätzten Selbstortung relativ gering ist, erhöht die Verarbeitungseinheit 30 die Gewichtung des Ergebnisses der Selbstortungsschätzung durch die erste Schätzeinheit 31 und des Ergebnisses der Selbstortungsschätzung durch die dritte Schätzeinheit 33. Wenn die Zuverlässigkeit der von der zweiten Schätzeinheit 32 geschätzten Selbstposition relativ gering ist, schaltet das zweite Verfahren die Selbstposition, auf die Bezug genommen werden soll, wenn das autonome Fahrzeug 10 zu der von der ersten Schätzeinheit 31 oder der dritten Schätzeinheit 33 geschätzten Selbstposition fährt.
  • Die oben beschriebene Ausführungsform hat die folgenden Vorteile.
    • (1) Die Verarbeitungseinheit 30 des autonomen Fahrzeugs 10 bestimmt die Zuverlässigkeit der von der zweiten Schätzeinheit 32 geschätzten Selbstposition durch mehrere Prozesse. Dies sieht einen Mechanismus vor, der in der Lage ist, die Zuverlässigkeit des von dem autonomen Fahrzeug 10 geschätzten Ergebnisses der Selbstposition sicherzustellen.
    • (2) Da die Zuverlässigkeit der Selbstposition stufenweise bestimmt wird und die Zuverlässigkeit stufenweise auf der Grundlage des Bestimmungsergebnisses berechnet wird, wird die Zuverlässigkeit der von der zweiten Schätzeinheit 32 geschätzten Selbstposition fein berechnet.
    • (3) Die Zuverlässigkeit der von der zweiten Schätzeinheit 32 geschätzten Selbstposition spiegelt sich in der Selbstpositionsschätzung in dem autonomen Fahrzeug 10 wider. Das heißt beispielsweise, wenn die Zuverlässigkeit der von der zweiten Schätzeinheit 32 geschätzten Selbstposition relativ niedrig ist, wird das Schätzergebnis der ersten Schätzeinheit 31 oder der dritten Schätzeinheit 33 in der Selbstpositionsschätzung in dem autonomen Fahrzeug 10 reflektiert. Dadurch wird die Gesamtzuverlässigkeit des vom autonomen Fahrzeug 10 geschätzten Selbstortungsergebnisses verbessert. Infolgedessen werden Fehlfunktionen des Systems, die das autonome Fahren betreffen, verhindert. Außerdem wird durch die Verbesserung der Steuereinheit die Zuverlässigkeit des gesamten Systems erhöht.
  • Die oben beschriebene Ausführungsform kann wie folgt modifiziert werden. Die oben beschriebene Ausführungsform und die folgenden Modifikationen können kombiniert werden, solange die kombinierten Modifikationen technisch miteinander konsistent bleiben.
  • Die Reihenfolge der Bestimmungsschritte zur Ermittlung der Zuverlässigkeit kann geändert werden.
  • Die zur Bestimmung der Zuverlässigkeit verwendeten Schwellenwerte können geändert werden. Das heißt, die Schwellenwerte können geändert werden, wenn sie auf der Grundlage der gewünschten Genauigkeit der Selbstortung bestimmt werden.
  • Wenn der relative Abstand größer oder gleich dem Schwellenwert im Prozess von Schritt S17 ist, kann der Prozess mit Schritt S30a fortfahren, um zu bestimmen, dass die Zuverlässigkeit MAX-8 ist.
  • Die Straßenoberflächenbild-Erhaltungsvorrichtung ist nicht auf die Kamera 60 beschränkt. Beispielsweise können Zeilensensoren (lineare Bildsensoren) als Straßenoberflächenbild-Erhaltungsvorrichtung verwendet werden.
  • Die Methode des Einfädelns (Integrationsmethode) auf der Grundlage der Zuverlässigkeit ist nicht begrenzt. Zusätzlich zur Summe der Gewichte kann auch ein Kalman-Filter verwendet werden.

Claims (6)

  1. Ein autonomes Fahrzeug, umfassend eine Straßenoberflächenbild-Erhaltungsvorrichtung, die sich auf einer Unterseite einer Fahrzeugkarosserie befindet und konfiguriert ist, um ein Straßenoberflächenbild zu erhalten, wobei das Straßenoberflächenbild ein Bild einer Straßenoberfläche unterhalb der Fahrzeugkarosserie ist; eine Speichereinheit, die Kartendaten speichert, in denen Positionskoordinaten und eine Orientierung der Fahrzeugkarosserie miteinander verknüpft sind; eine Schätzeinheit, die so konfiguriert ist, dass sie eine Selbstposition durch Vergleichen von Merkmalspunkten, die aus Fahrdaten extrahiert wurden, und Merkmalspunkten, die aus den Kartendaten extrahiert wurden, schätzt, wobei die Fahrdaten das Straßenoberflächenbild sind, das durch die Straßenoberflächenbild-Erhaltungsvorrichtung erhalten wurde, und die Kartendaten ein Kartenbild sind; und eine Bestimmungseinheit, die so konfiguriert ist, dass sie einen Zuverlässigkeitsbestimmungsprozess zum Bestimmen einer Zuverlässigkeit der durch die Schätzeinheit geschätzten Selbstposition ausführt, wobei der Zuverlässigkeitsbestimmungsprozess Folgendes umfasst einen Prozess des Bestimmens, ob die Schätzeinheit in einem Zustand ist, der in der Lage ist, die Selbstposition zu schätzen; und einen Prozess des Bestimmens, falls die Selbstposition geschätzt werden kann, ob eine Anzahl von Übereinstimmungen zwischen den aus den Kartendaten extrahierten Merkmalspunkten und den aus den Fahrdaten extrahierten Merkmalspunkten, wenn die Schätzeinheit die Selbstposition schätzt, einen vorbestimmten Schwellenwert erreicht, und die Bestimmungseinheit konfiguriert ist, um die Zuverlässigkeit der von der Schätzeinheit geschätzten Selbstposition auf der Grundlage von Ergebnissen von Prozessen zu bestimmen, die in dem Zuverlässigkeitsbestimmungsprozess umfasst sind.
  2. Autonomes Fahrzeug nach Anspruch 1, wobei der Zuverlässigkeitsbestimmungsprozess ferner umfasst: einen Prozess zum Bestimmen, ob eine Verteilung der aus den Kartendaten extrahierten Merkmalspunkte ungleichmäßig ist; und einen Prozess zum Bestimmen, ob eine Verteilung der aus den Fahrdaten extrahierten Merkmalspunkte ungleichmäßig ist.
  3. Autonomes Fahrzeug nach Anspruch 1 oder 2, wobei der Zuverlässigkeitsbestimmungsprozess ferner einen Prozess umfasst, der bestimmt, ob ein relativer Abstand zwischen dem Kartenbild und dem Straßenoberflächenbild, wenn die Schätzeinheit einen Abgleich durchführt, kleiner als ein vorbestimmter Schwellenwert ist.
  4. Autonomes Fahrzeug nach Anspruch 3, wobei der Zuverlässigkeitsbestimmungsprozess ferner einen Prozess umfasst, um zu bestimmen, falls der relative Abstand zwischen dem Kartenbild und dem Straßenoberflächenbild größer oder gleich dem vorbestimmten Schwellenwert ist, ob ein relativer Abstand zwischen der von der Schätzeinheit geschätzten eigenen Position und einer auf Fahrzeug-Odometrie-Informationen basierenden Selbstposition kleiner als ein vorbestimmter Schwellenwert ist.
  5. Autonomes Fahrzeug nach einem der Ansprüche 1 bis 4, wobei der Zuverlässigkeitsbestimmungsprozess ferner einen Prozess umfasst, bei dem bestimmt wird, ob eine verstrichene Zeit kürzer als ein vorbestimmter Schwellenwert ist, wobei die verstrichene Zeit eine Differenz zwischen einem vorherigen Zeitpunkt, zu dem die Schätzeinheit den Abgleich durchgeführt hat, und einem aktuellen Zeitpunkt ist, zu dem die Schätzeinheit den Abgleich durchgeführt hat.
  6. Autonomes Fahrzeug nach einem der Ansprüche 1 bis 5, wobei der Zuverlässigkeitsbestimmungsprozess ferner einen Prozess umfasst, bei dem bestimmt wird, ob das Kartenbild, in dem ein Abgleich erfolgt, wenn die Schätzeinheit den eigenen Standort schätzt, ein Kartenbild ist, das unter den Kartenbildern, die einem Abgleich unterzogen werden sollen, eine Priorität hat, die niedriger ist als ein vorbestimmter Schwellenwert.
DE112022001582.9T 2021-03-19 2022-03-16 Autonomes Fahrzeug Pending DE112022001582T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2021046256A JP2022145014A (ja) 2021-03-19 2021-03-19 自律走行車
JP2021-046256 2021-03-19
PCT/JP2022/011757 WO2022196709A1 (ja) 2021-03-19 2022-03-16 自律走行車

Publications (1)

Publication Number Publication Date
DE112022001582T5 true DE112022001582T5 (de) 2024-01-04

Family

ID=83321012

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112022001582.9T Pending DE112022001582T5 (de) 2021-03-19 2022-03-16 Autonomes Fahrzeug

Country Status (3)

Country Link
JP (1) JP2022145014A (de)
DE (1) DE112022001582T5 (de)
WO (1) WO2022196709A1 (de)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012127896A (ja) * 2010-12-17 2012-07-05 Kumamoto Univ 移動体位置測定装置
JP6667065B2 (ja) * 2015-03-04 2020-03-18 パナソニックIpマネジメント株式会社 位置推定装置および位置推定方法
JP6658088B2 (ja) * 2015-03-23 2020-03-04 株式会社豊田中央研究所 情報処理装置、プログラム、及び地図データ更新システム
JP2017091128A (ja) * 2015-11-09 2017-05-25 アイシン・エィ・ダブリュ株式会社 移動状態推定システム、方法およびプログラム
JP6380422B2 (ja) * 2016-02-05 2018-08-29 トヨタ自動車株式会社 自動運転システム
JP6828655B2 (ja) * 2017-10-20 2021-02-10 トヨタ自動車株式会社 自車位置推定装置
JP6881369B2 (ja) * 2018-03-26 2021-06-02 トヨタ自動車株式会社 自車位置推定装置

Also Published As

Publication number Publication date
JP2022145014A (ja) 2022-10-03
WO2022196709A1 (ja) 2022-09-22

Similar Documents

Publication Publication Date Title
DE102007005121B4 (de) Verfahren und Vorrichtung für eine fahrzeuginterne Kalibrierung und Orientierung von Objektverfolgungssystemen
DE602004003811T2 (de) Objektdetektionssystem und verfahren zum erkennen eines objekts
DE102009016568B4 (de) Trajektorien-Abschätzvorrichtung für ein bewegliches Objekt
DE102005035746B4 (de) Verfahren zur Bestimmung einer Relativposition einer mobilen Einheit durch Vergleich von Scans einer Umgebung und mobile Einheit
DE102009012435B4 (de) Vorrichtung und Verfahren zum monokularen Motion-Stereo-basierten Detektieren von freien Parkplätzen
DE112015000715B4 (de) Vorrichtung zum Erfassen einer Achsenfehlausrichtung eines Strahlensensors
DE102017124955A1 (de) Verfahren zum Feststellen einer Lagebeziehung zwischen einer Kamera und einem Scheinwerfer eines Fahrzeugs
DE10323915A1 (de) Kamerabasierte Positionserkennung für ein Straßenfahrzeug
DE112019000801T5 (de) Fahrunterstützungsvorrichtung und Fahrunterstützungsverfahren
DE102009055776A1 (de) Verfahren zur Schätzung des Rollwinkels in einem fahrenden Fahrzeug
AT507618B1 (de) Verfahren zum bestimmen der relativlage eines laserscanners zu einem referenzsystem
DE112017005976T5 (de) Fahrzeugsteuervorrichtung
DE10239608A1 (de) Verfahren und System zur Bestimmung der Fahrtumgebung
DE102011005727A1 (de) Verfahren und Vorrichtung zur Erfassung von Straßenrändern
DE102018123393A1 (de) Erkennung von Parkflächen
DE102020102712A1 (de) Entfernung von fehlalarmen in der keulenbildungsphase zum erfassen von radaren unter verwendung eines tiefen neuronalen netzwerks
DE112020004880T5 (de) Axiale-Abweichung-Schätzvorrichtung
AT502320A1 (de) Verfahren zur fahrspurerkennung
DE112022001582T5 (de) Autonomes Fahrzeug
EP3663881B1 (de) Verfahren zur steuerung eines autonomen fahrzeugs auf der grundlage von geschätzten bewegungsvektoren
DE102006007550A1 (de) Vorrichtung und Verfahren zur Erkennung einer Fahrbahnmarkierung für ein Kraftfahrzeug
EP4198894A1 (de) Kamerabasierte fahrzeugkonturerfassung für fahrzeugbehandlungsanlagen
EP4068223A1 (de) Verfahren und system zur bestimmung der bodenebene mit einem künstlichen neuronalen netz
WO2021219706A1 (de) Verfahren, system und computerprogrammprodukt zur bestimmung der pose einer mobilen einheit
DE102021111536A1 (de) Verfahren und system zur bodenoberflächenprojektion für autonomes fahren

Legal Events

Date Code Title Description
R012 Request for examination validly filed