DE112020002630T5 - Kartensystem, kartenerzeugendes programm, speichermedium, fahrzeuginterne vorrichtung und server - Google Patents

Kartensystem, kartenerzeugendes programm, speichermedium, fahrzeuginterne vorrichtung und server Download PDF

Info

Publication number
DE112020002630T5
DE112020002630T5 DE112020002630.2T DE112020002630T DE112020002630T5 DE 112020002630 T5 DE112020002630 T5 DE 112020002630T5 DE 112020002630 T DE112020002630 T DE 112020002630T DE 112020002630 T5 DE112020002630 T5 DE 112020002630T5
Authority
DE
Germany
Prior art keywords
vehicle
data
reliability
map
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112020002630.2T
Other languages
English (en)
Inventor
Kentarou Shiota
Naoki Nitanda
Kazuma Ishigaki
Shinya Taguchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2020089651A external-priority patent/JP7215460B2/ja
Application filed by Denso Corp filed Critical Denso Corp
Publication of DE112020002630T5 publication Critical patent/DE112020002630T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/3815Road data
    • G01C21/3822Road feature data, e.g. slope data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3863Structures of map data
    • G01C21/387Organisation of map data, e.g. version management or database structures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3885Transmission of map data to client devices; Reception of map data by client devices
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/52Determining velocity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/123Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams
    • G08G1/133Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams within the vehicle ; Indicators inside the vehicles or at stops
    • G08G1/137Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams within the vehicle ; Indicators inside the vehicles or at stops the indicator being in the form of a map

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Databases & Information Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

Ein Kartensystem (1, 31) umfasst eine fahrzeuginterne Vorrichtung (9, 32), die in einem Fahrzeug angebracht ist. Das Kartensystem umfasst eine Abbildungsvorrichtung (3), die ein Bild eines Umgebungsbereichs des Fahrzeugs erfasst, und einen Server (2), der eine Karte unter Nutzung von Daten erzeugt, die dem von der Abbildungsvorrichtung erfassten Bild entsprechen, das von der fahrzeuginternen Vorrichtung übertragen wird. Das Kartensystem umfasst eine Integrationseinheit (11), die die einzelnen Daten, die von einer Vielzahl von fahrzeuginternen Vorrichtungen übertragen werden, basierend auf Verzerrungen in den einzelnen Daten gewichtet und eine Landkarte durch Integration von mindestens einem Teil der Vielzahl von einzelnen Daten basierend auf deren Gewichtung erzeugt.

Description

  • [Querverweis auf verwandte Anwendungen]
  • Die vorliegende Anmeldung basiert auf der japanischen Patentanmeldung Nr. 2019-100268 bzw. der JP 2019-100 268 A , die am 29. Mai 2019 eingereicht wurde, und der japanischen Patentanmeldung Nr. 2020-089651 bzw. der JP 2020-089 651 A , die am 22. Mai 2020 eingereicht wurde, und beansprucht die Priorität dieser Anmeldungen, deren Inhalte hier durch Bezugnahme aufgenommen sind.
  • [Technisches Gebiet]
  • Die vorliegende Offenbarung bezieht sich auf ein Kartensystem, das eine Karte erzeugt, ein Kartenerzeugungsprogramm, ein Speichermedium, eine fahrzeuginterne Vorrichtung und einen Server.
  • [Stand der Technik]
  • Die PTL 1 offenbart eine Technologie, die sich auf ein System bezieht, in dem Positionsinformationen eines Orientierungspunkts bzw. einer Sehenswürdigkeit oder dergleichen unter Verwendung eines Bildes aufgezeichnet werden, das von einer Kamera aufgenommen wird, die an einem Fahrzeug angebracht ist. Diese Informationen werden auf einen Server oder dergleichen hochgeladen, und es wird eine Basiskarte erstellt. Während der Fahrt des Fahrzeugs wird die erzeugte Basiskarte heruntergeladen und die Position des eigenen Fahrzeugs bestimmt.
  • [Liste zitierter Schriften]
  • [Patentliteratur]
  • [PTL 1] JP2018-51 0 373 A
  • In einem System wie dem vorstehend beschriebenen können sich einzelne Sonden- bzw. Messdaten, d. h. Daten, die auf den Server hochgeladen werden sollen, abhängig von den Spezifikationen, der Anbringungsposition, der Einstellung und dergleichen einer Bildgebungsvorrichtung, wie z. B. einer am Fahrzeug angebrachten Kamera, die die Messdaten erzeugt, selbst dann voneinander unterscheiden, wenn die Datenstücke denselben Ort betreffen. Herkömmlicherweise erzeugt der Server eine Karte, indem er all diese einzelnen Messdaten integriert. Daher verbessert sich die Genauigkeit der Kartenerzeugung im Server mit zunehmender Anzahl von einzelnen Messdaten.
  • Wenn jedoch die Anzahl der einzelnen Messdaten klein ist und eine Verzerrung bzw. ein Bias in den Messdaten auftritt, kann es sein, dass eine Verbesserung der Genauigkeit bei der Erstellung der Karte durch den Server nicht erreichbar ist. Das heißt, bei der herkömmlichen Technologie kann die Genauigkeit der Kartenerstellung im Server abnehmen, wenn die Zahl der Messdaten klein ist.
  • Es ist eine Aufgabe der vorliegenden Offenbarung, ein Kartensystem bereitzustellen, das dazu fähig ist, die Genauigkeit der Kartenerzeugung in einem Server, ein Kartenerzeugungsprogramm, ein Speichermedium, eine fahrzeuginterne Vorrichtung und einen Server zu verbessern.
  • [Kurze Erläuterung der Erfindung]
  • Ein Aspekt der vorliegenden Offenbarung schafft ein Kartensystem, bei dem es sich um ein System handelt, das eine fahrzeuginterne Vorrichtung umfasst, die in einem Fahrzeug vorgesehen ist und eine Abbildungsvorrichtung umfasst, die ein Bild eines Umgebungsbereichs des Fahrzeugs erfasst, sowie einen Server, der eine Landkarte bzw. Karte unter Verwendung von Daten erzeugt, die zu dem von der Abbildungsvorrichtung erfassten Bild gehören, das von der fahrzeuginternen Vorrichtung übertragen wird. Das Kartensystem umfasst eine Integrationseinheit, die die einzelnen Daten, die von mehreren bzw. einer Vielzahl von fahrzeuginternen Vorrichtungen übertragen werden, basierend auf Verzerrungen bzw. einem Bias in den Daten gewichtet und eine Karte durch Integration mindestens eines Teils der Vielzahl von Daten basierend auf der Gewichtung erzeugt.
  • Im vorstehend erläuterten Aufbau wird selbst dann, wenn eine Verzerrung in den einzelnen Daten, also in den Messdaten vorhanden ist, die von der Vielzahl von fahrzeuginternen Vorrichtungen an den Server übertragen werden, eine Gewichtung der einzelnen Daten basierend auf der Verzerrung bzw. dem Bias durchgeführt, und die Karte wird unter Berücksichtigung der Gewichtung erzeugt. Als Ergebnis eines solchen Aufbaus kann der Server selbst dann, wenn die Anzahl der Daten gering ist, die von den fahrzeuginternen Vorrichtungen an den Server übertragen werden, eine Karte erzeugen, die eine höhere Genauigkeit als in der Vergangenheit aufweist. Daher kann als Ergebnis des vorstehend erläuterten Aufbaus ein herausragender Effekt zur Verbesserung der Genauigkeit der Kartenerstellung im Server erzielt werden.
  • Figurenliste
  • Der vorstehend erläuterte Gegenstand, andere Gegenstände, Merkmale und Vorteile der vorliegenden Offenbarung werden durch die nachstehende genaue Erläuterung anhand der beigefügten Figuren weiter erklärt. In den Figuren zeigt:
    • 1 ein Schaubild, das schematisch einen Aufbau eines Kartensystems gemäß einer ersten Ausführungsform zeigt;
    • 2 ein Schaubild, das schematisch einen Aufbau einer Integrationseinheit gemäß der ersten Ausführungsform zeigt;
    • 3 ein Schaubild, das schematisch einen Ablauf von Vorgängen zeigt, die von der Integrationseinheit in einem ersten Anwendungsbeispiel gemäß der ersten Ausführungsform durchgeführt werden;
    • 4 ein Schaubild, das schematisch einen Ablauf von Vorgängen zeigt, die von der Integrationseinheit in einem zweiten Anwendungsbeispiel gemäß der ersten Ausführungsform durchgeführt werden;
    • 5 ein Schaubild, das schematisch einen Ablauf von Vorgängen zeigt, die von der Integrationseinheit in einem dritten Anwendungsbeispiel gemäß der ersten Ausführungsform durchgeführt werden;
    • 6 ein Schaubild, das schematisch einen Aufbau eines Kartensystems gemäß einer zweiten Ausführungsform zeigt;
    • 7 ein Schaubild zur Erläuterung eines spezifischen Beispiels der Erzeugung von Informationen über das Ausmaß der Verlässlichkeit durch ein erstes Verfahren gemäß der zweiten Ausführungsform;
    • 8 ein Schaubild zur Erläuterung eines spezifischen Beispiels der Erzeugung von Informationen über das Ausmaß der Verlässlichkeit durch ein zweites Verfahren gemäß der zweiten Ausführungsform; und
    • 9 ein Schaubild zur Erläuterung eines spezifischen Beispiels der Erzeugung von Informationen über das Ausmaß der Verlässlichkeit durch ein drittes Verfahren gemäß der zweiten Ausführungsform.
  • [Erläuterung von Ausführungsformen]
  • Eine Vielzahl von Ausführungsformen wird nachstehend anhand der Figuren erläutert. Dabei werden im Wesentlichen identische Aufbauten der Ausführungsformen mit denselben Bezugszeichen versehen. Deren Erläuterungen werden weggelassen.
  • (Erste Ausführungsform)
  • Eine erste Ausführungsform wird nachstehend anhand von 1 bis 5 beschrieben.
  • Ein in 1 gezeigtes Kartensystem 1 ist ein Kartensystem für die autonome Navigation. Das Kartensystem 1 bietet eine zusätzliche Funktion zu einer konventionellen Funktion zur Erkennung einer Position eines eigenen Fahrzeugs, wie z.B. ein globales Positionierungssystem (GPS), und erzielt einen Effekt einer Identifizierung der Position mit höherer Genauigkeit. Grob klassifiziert bietet das Kartensystem 1 zwei Funktionen, nämlich Kartennutzung und Kartenaktualisierung.
  • Bei der Kartennutzung werden auf einem Server 2 gespeicherte Karteninformationen in ein Fahrzeug heruntergeladen. Das Fahrzeug identifiziert die Position des eigenen Fahrzeugs basierend auf den heruntergeladenen Karteninformationen und einer Position eines Orientierungspunkts, wie z. B. eines Schildes, die in einem Bild enthalten ist, das von einem Bildsensor 3, wie z. B. einer Kamera, erfasst wird. In der vorliegenden Erläuterung können die Karteninformationen, die auf dem Server 2 gespeichert sind, als eine integrierte Karte bezeichnet werden. In diesem Fall wird die Fahrunterstützung basierend auf der ermittelten aktuellen Position des eigenen Fahrzeugs dadurch realisiert, dass eine Fahrzeugsteuereinheit 4 einen entsprechenden Befehl an ein Stellglied zur Betätigung von Hardware ausgibt, die am Fahrzeug montiert ist. Bei dem Stellglied kann es sich beispielsweise um eine Vorrichtung zur Steuerung des Fahrzeugs durch Hardware handeln, wie z.B. eine Bremse, eine Drosselklappe, eine Lenkung oder eine Lampe.
  • Währenddessen werden bei der Kartenaktualisierung Informationen, die von verschiedenen Sensoren erhalten werden, wie dem Bildsensor 3, einem Fahrzeuggeschwindigkeitssensor 5 und einem (nicht gezeigten) Millimeterwellensensor, die am Fahrzeug angebracht sind, als Messdaten auf den Server 2 hochgeladen, und die integrierte Karte im Server 2 wird allmählich aktualisiert. Infolgedessen kann das Fahrzeug beispielsweise eine Fahrunterstützung, eine automatische Lenkung und dergleichen realisieren, während die Positionsbestimmung zu jeder Zeit mit hoher Genauigkeit basierend auf den neuesten Karteninformationen durchgeführt wird.
  • Im Kartensystem 1 ist eine Mensch-Maschinen-Schnittstelle 6 eine Benutzerschnittstelle, über die ein Benutzer über verschiedene Arten von Informationen benachrichtigt wird und der Benutzer eine vorab festgelegte Bedienung des Fahrzeugs ausführt. In der vorliegenden Beschreibung kann die Mensch-Maschinen-Schnittstelle als HMI (Human-Machine Interface) abgekürzt werden. Die HMI 6 kann beispielsweise ein Display, das an einer Fahrzeugnavigationsvorrichtung vorgesehen ist, ein Display, das in einer Instrumententafel enthalten ist, ein Head-up-Display, das auf eine Windschutzscheibe projiziert wird, ein Mikrofon, einen Lautsprecher und dergleichen umfassen. Darüber hinaus kann auch ein mobiles Terminal, wie z. B. ein Smartphone, das so angeschlossen ist, dass es mit dem Fahrzeug kommunizieren kann, als die HMI 6 im Kartensystem 1 dienen.
  • Zusätzlich zur visuellen Aufnahme von Informationen, die in der HMI 6 angezeigt werden, kann der Benutzer Informationen durch Sprache, Warntöne und Vibrationen aufnehmen. Darüber hinaus kann der Benutzer eine gewünschte Funktion des Fahrzeugs durch Berühren des Displays oder per Sprache anfordern. Zum Beispiel kann der Benutzer die Funktion über die HMI 6 aktivieren, um einen erweiterten Fahrassistenzdienst, wie z. B. automatisches Lenken anhand der Karteninformationen, zu erhalten. Wenn zum Beispiel eine auf dem Display angezeigte Schaltfläche „Link zur Karte“ angetippt wird, kann die Kartennutzungsfunktion aktiviert und das Herunterladen der Karteninformationen gestartet werden.
  • In einem anderen Beispiel wird die Kartennutzungsfunktion durch einen Befehl aktiviert, der per Sprache ausgegeben wird. In diesem Fall kann das Hochladen von Karteninformationen, die sich auf die Kartenaktualisierung beziehen, jederzeit erfolgen, solange die Kommunikation zwischen dem Fahrzeug und dem Server 2 hergestellt ist, oder es kann erfolgen, während die Kartennutzungsfunktion durch Antippen der Schaltfläche „Link zur Karte“ aktiviert wird. Alternativ kann die Kartennutzungsfunktion über eine andere Benutzeroberfläche (UI) aktiviert werden, die die Absichten des Benutzers wiedergibt.
  • Das Kartensystem 1 gemäß der vorliegenden Ausführungsform umfasst den Server 2 und fahrzeugseitige Aufbauten. Zu den fahrzeugseitigen Aufbauten gehören der Bildsensor 3, die Fahrzeugsteuereinheit 4, der Fahrzeuggeschwindigkeitssensor 5, die HMI 6, eine GPS-Empfangseinheit 7, eine Steuereinheit 8 und dergleichen. Aus den fahrzeugseitigen Aufbauten arbeiten der Bildsensor 3 und die Steuervorrichtung 8 als eine fahrzeuginterne Vorrichtung 9, die Daten, die dem vom Bildsensor 3 erfassten Bild entsprechen, an den Server 2 überträgt.
  • Der Server 2 befindet sich an einem Ort, der von dem Fahrzeug getrennt ist, in dem die fahrzeuginterne Vorrichtung 9 und dergleichen montiert sind. Der Server 2 erzeugt eine Karte unter Verwendung der Daten, die dem vom Bildsensor 3 erfassten Bild entsprechen, das von der fahrzeuginternen Vorrichtung 9 übertragen wird. Der Server 2 umfasst eine Steuervorrichtung 10. Die Steuervorrichtung 10 ist hauptsächlich aus einem Mikrocomputer aufgebaut, der eine Zentralprozessoreinheit (CPU), einen Festwertspeicher (ROM), einen Speicher mit wahlfreiem Zugriff (RAM), eine Ein-/Ausgabe (E/A) und dergleichen umfasst. Die Steuervorrichtung 10 umfasst eine Integrationseinheit 11 und eine Aktualisierungseinheit 12.
  • Diese Funktionsblöcke werden durch die CPU der Steuervorrichtung 10 verwirklicht, indem ein Computerprogramm ausgeführt wird, das in einem nichtflüchtigen, physischen Aufzeichnungsmedium gespeichert ist, und dadurch ein Vorgang durchgeführt wird, der zum Computerprogramm passt. Das heißt, die Funktionsblöcke werden durch Software verwirklicht. Daher enthält das Computerprogramm, das vom Mikrocomputer der Steuervorrichtung 10 ausgeführt wird, zumindest einen Teil eines Programms zur Durchführung zumindest eines Teils der Vorgänge, die mit der Kartenerstellung und - aktualisierung zusammenhängen, also ein Kartenerstellungsprogramm. Die Integrationseinheit 11 und die Aktualisierungseinheit 12 sind vorgesehen, um verschiedene Arten von Abläufen hinsichtlich der vorstehend erläuterten Kartenaktualisierung durchzuführen. Einzelheiten zu den Abläufen werden nachstehend erläutert.
  • Die GPS-Empfangseinheit 7 gibt Daten Da aus, die GPS-Informationen anzeigen, die durch ein Signal vermittelt werden, das über eine (nicht dargestellte) GPS-Antenne von der Steuervorrichtung 8 und dergleichen empfangen wird. Der Fahrzeuggeschwindigkeitssensor 5 erfasst eine Fahrzeuggeschwindigkeit, die eine Geschwindigkeit des Fahrzeugs ist, und ist als ein Raddrehzahlsensor aufgebaut, der eine Drehzahl eines Rades erfasst, das in dem Fahrzeug vorgesehen ist. Der Fahrzeuggeschwindigkeitssensor 5 gibt ein Signal Sa, das eine erfasste Geschwindigkeit angibt, die sein Erfassungswert ist, an die Steuervorrichtung 8 und dergleichen aus.
  • Der Bildsensor 3 ist eine Abbildungsvorrichtung, die am Fahrzeug angebracht ist und ein Bild einer Umgebung um das Fahrzeug oder insbesondere einer Umgebung innerhalb eines in einer Fahrtrichtung des Fahrzeugs vorab festgelegten Bereichs vor dem Fahrzeug aufnimmt. Dabei muss der Bildsensor 3 nicht auf denjenigen beschränkt sein, der ein Bild des in Fahrtrichtung vor dem Fahrzeug liegenden Bereichs aufnimmt, sondern kann beispielsweise auch ein Bild eines hinteren oder seitlichen Bereichs aufnehmen. Die vom Bildsensor 3 erfassten Informationen über die Umgebung des Fahrzeugs werden in einem (nicht gezeigten) Speicher in einem Standbild- oder Bewegtbildformat gespeichert (nachstehend werden das Standbild und das Bewegtbild gemeinsam als Bild bezeichnet). Die Steuervorrichtung 8 ist dazu aufgebaut, in der Lage zu sein, im Speicher gespeicherte Daten Db zu lesen, und verschiedene Prozesse basierend auf den Daten Db auszuführen.
  • Die Steuervorrichtung 8 ist hauptsächlich durch einen Mikrocomputer aufgebaut, der eine CPU, einen ROM, einen RAM, eine I/O- bzw. Ein-Ausgabeeinheit und dergleichen enthält. Die Steuervorrichtung 8 umfasst Funktionsblöcke wie eine Skalierungsfaktor-Korrektureinheit 13, eine Egomotion- bzw. Eigenbewegungs-Berechnungseinheit 14, eine Einheit 15 zum Erfassen von Orientierungspunkten, eine Einheit 16 zur Landkartenerzeugung und eine Lokalisierungseinheit 17. Diese Funktionsblöcke werden durch die CPU der Steuervorrichtung 8 verwirklicht, die ein Computerprogramm ausführt, das in einem nicht-übertragbaren, greifbaren Aufzeichnungsmedium gespeichert ist, und dadurch einen Ablauf ausführt, der dem Computerprogramm entspricht. Das heißt, die Funktionsblöcke werden durch Software verwirklicht.
  • Die Steuervorrichtung 8 umfasst einen Teil einer fahrzeuginternen bzw. On-Board-Vorrichtung, wie z. B. eine elektronische Steuervorrichtung, d. h. eine ECU, die in das Fahrzeug eingebaut ist. Das Computerprogramm, das von dem Mikrocomputer der Steuervorrichtung 8 ausgeführt wird, enthält zumindest einen Teil eines Programms zur Durchführung zumindest eines Teils der Abläufe, die mit der Kartenerstellung und der Kartenaktualisierung zusammenhängen, also ein Kartenerstellungsprogramm. Die Skalierungsfaktor-Korrektureinheit 13 lernt einen Skalierungsfaktor (SK) des Fahrzeuggeschwindigkeitssensors 5 basierend auf dem Signal Sa, das vom Fahrzeuggeschwindigkeitssensor 5 geliefert wird, und den Daten Db, die das vom Bildsensor 3 aufgenommene Bild anzeigen.
  • In der vorliegenden Erläuterung kann die Skalierungsfaktor-Korrektureinheit als SF-Korrektureinheit abgekürzt werden. Der Skalierungsfaktor des Fahrzeuggeschwindigkeitssensors 5 bezieht sich auf ein Verhältnis des Erfassungswerts des Fahrzeuggeschwindigkeitssensors 5 zu einer vom Fahrzeuggeschwindigkeitssensor 5 zu messenden Fahrzeuggeschwindigkeit, also ein Verhältnis der Änderung der Ausgabe zur Änderung des Eingangs des Fahrzeuggeschwindigkeitssensors 5, und ist ein Koeffizient zur Bestimmung eines wahren Werts der Fahrzeuggeschwindigkeit aus dem vom Fahrzeuggeschwindigkeitssensor 5 erfassten Wert. Die SF-Korrektureinheit 13 ermittelt die Fahrzeuggeschwindigkeit des eigenen Fahrzeugs basierend auf dem vom Fahrzeuggeschwindigkeitssensor 5 gelieferten Signal Sa und dem durch Lernen korrigierten Skalierungsfaktor. Die SF-Korrektureinheit 13 gibt dann Daten De, die den Erfassungswert angeben, an die Eigenbewegungs-Berechnungseinheit 14 aus.
  • Die Eigenbewegungs-Berechnungseinheit 14 schätzt das Verhalten des eigenen Fahrzeugs, also das Verhalten des Fahrzeugs, basierend auf dem vom Bildsensor 3 aufgenommenen Bild ab. In diesem Fall ist die Eigenbewegungs-Berechnungseinheit 14 so aufgebaut, dass sie das Verhalten des eigenen Fahrzeugs unter Verwendung eines „Structure From Motion“-Verfahrens abschätzt. In der vorliegenden Beschreibung kann „Structure From Motion“ als SFM abgekürzt werden. Die Eigenbewegungs-Berechnungseinheit 14 umfasst eine SFM-Erkennungseinheit 18, die durch ein SFM-Modul aufgebaut ist, und eine Fahrtrajektorien- bzw. Fahrwegerzeugungseinheit 19.
  • Die SFM-Erkennungseinheit 18 führt eine Abschätzung der Eigenbewegung und dergleichen basierend auf den Daten Db durch, wobei die Eigenbewegung ein Parameter ist, der das Verhalten des eigenen Fahrzeugs anzeigt, d.h. eine Haltung des Fahrzeugs selbst. Hier umfasst die Eigenbewegung Informationen, die Gier-, Roll-, Nick- und Translationsbewegungen anzeigen. Im vorstehend erläuterten Aufbau nimmt der Bildsensor 3 Umgebungsbilder des Fahrzeugs während der Fahrt auf. Die SFM-Erkennungseinheit 18 extrahiert leicht zu verarbeitende Orientierungspunkte, wie z.B. Ecken und Kanten, aus Bildern aus zwei Blickwinkeln, die während der Bewegung des Bildsensors 3 aufgenommen werden, also aus Bildern, die zwei Frames ausmachen, deren unterschiedliche Bildpositionen zu unterschiedlichen Zeitpunkten von einem einzigen Bildsensor 3 aufgenommen werden.
  • Die SFM-Erkennungseinheit 18 assoziiert die Orientierungspunkte, die aus den Bildern extrahiert werden, die zwei Frames ausmachen, und berechnet den optischen Fluss der Orientierungspunkte basierend auf deren Positionsbeziehungen. Die SFM-Erkennungseinheit 18 schätzt eine dreidimensionale Position jedes Orientierungspunktes und die Haltung des Bildsensors 3, also die Eigenbewegung, basierend auf dem berechneten multiplen optischen Fluss. Dabei kann die SFM-Erkennungseinheit 18 durch ein solches Verfahren eine Bewegungsgröße des eigenen Fahrzeugs ermitteln. Es gibt jedoch ein Problem mit der Genauigkeit der Skala. Daher erfasst die SFM-Erkennungseinheit 18 eine Bewegungsgeschwindigkeit des eigenen Fahrzeugs auf der Grundlage der Daten Da, die die GPS-Informationen angeben, und der Daten De, die den Erfassungswert der Fahrzeuggeschwindigkeit angeben, und verbessert die Genauigkeit der Skala basierend auf der Bewegungsgeschwindigkeit.
  • Die SFM-Erkennungseinheit 18 gibt Daten Dd, die die geschätzte Eigenbewegung angeben, an die Fahrwegerzeugungseinheit 19 und die Einheit 15 zum Erfassen von Orientierungspunkten aus. Die Fahrwegerzeugungseinheit 19 integriert die von der SFM-Erkennungseinheit 18 geschätzte Eigenbewegung jedes Mal und erzeugt einen Fahrweg bzw. eine Fahrtrajektorie, der bzw. die eine Art und Weise anzeigt, in der sich das eigene Fahrzeug bewegt hat. Die Fahrwegerzeugungseinheit 19 gibt Daten De, die die erzeugte Fahrtrajektorie anzeigen, an die Einheit 16 zur Landkartenerzeugung aus.
  • Die Einheit 15 zur Erfassung von Orientierungspunkten umfasst eine Erkennungseinheit 20 und eine Zielobjekt-Erzeugungseinheit 21. Die Erkennungseinheit 20 erfasst anhand der Daten Db eine Position eines Orientierungspunkts im vom Bildsensor 3 aufgenommenen Bild. Als Erkennungsverfahren für die Position des Orientierungspunkts können dabei verschiedene Verfahren genutzt werden. Der Orientierungspunkt kann zum Beispiel Schilder, Tafeln, Masten wie Leitungsmasten und Straßenlaternen, weiße Linien, Ampeln und dergleichen umfassen.
  • Darüber hinaus erkennt die Erkennungseinheit 20 eine vom eigenen Fahrzeug befahrene Straße basierend auf den Daten Db und erfasst Straßenparameter und Grenzlinieninformationen, also Informationen, die eine Grenzlinie anzeigen. Die Straßenparameter umfassen Informationen, die eine Fahrspurbreite, also eine Breite einer Fahrspur, und eine Form der Fahrspur angeben, wie z.B. eine Krümmung der Fahrspur, also der Straße. Darüber hinaus enthalten die Straßenparameter auch Informationen, die einen Fahrzustand des eigenen Fahrzeugs hinsichtlich der Form der Fahrspur angeben, wie z.B. einen Versatz, der einen Abstand von einer mittleren Position der Fahrspur in Breitenrichtung zur Position des eigenen Fahrzeugs angibt, und einen Gierwinkel, der durch einen Winkel zwischen einer Richtung einer Tangente an der Fahrspur, also der Straße, und der Fortbewegungsrichtung des eigenen Fahrzeugs gebildet wird.
  • In diesem Fall ist die Information über die befahrene Straße, wie die vorstehend erläuterte Information über die Begrenzungslinie, im Orientierungspunkt enthalten. Die Erkennungseinheit 20 gibt Daten Df, die ein Erkennungsergebnis eines solchen Orientierungspunkts anzeigen, an die Zielobjekterzeugungseinheit 21 aus. Basierend auf den von der Erkennungseinheit 20 bereitgestellten Daten Df und den von der SFM-Erkennungseinheit 18 bereitgestellten Daten Dd gleicht die Zielobjekterzeugungseinheit 21 den erkannten Orientierungspunkt und die SFM-Punkte darin ab und bestimmt dadurch physikalische Positionsinformationen, die einen Abstand und eine seitliche Position des Orientierungspunkts umfassen. Die Einheit 15 zur Erfassung von Orientierungspunkten gibt Daten Dg, die die von der Erkennungseinheit 20 erfassten Straßenparameter angeben, an die Fahrzeugsteuereinheit 4 aus. Zusätzlich gibt die Einheit 15 zur Erfassung von Orientierungspunkten Daten Dh an die Einheit 16 zur Landkartenerzeugung aus, die Informationen bezüglich der Position des Orientierungspunkts anzeigen, die auch die Informationen über die befahrene Straße wie die von der Zielobjekt-Erzeugungseinheit 21 erzeugten Grenzlinieninformationen enthalten.
  • Die Einheit 16 zur Landkartenerzeugung erzeugt Karteninformationen auf der Grundlage der Daten Da, die die GPS-Informationen anzeigen, der Daten De, die von der Eigenbewegungs-Berechnungseinheit 14 bereitgestellt werden, und der Daten Dh, die von der Einheit 15 zur Erfassung von Orientierungspunkten bereitgestellt werden. Insbesondere verknüpft die Einheit 16 zur Landkartenerzeugung die GPS-Informationen, den erzeugten Orientierungspunkt und den Fahrweg und erzeugt dadurch Karteninformationen, die fragmentarische Kartendaten sind. In der vorliegenden Beschreibung können die Karteninformationen, die von der Einheit 16 zur Landkartenerzeugung erzeugt werden, als eine gemessene Karte bezeichnet werden.
  • Die Daten Di, die die von der Einheit 16 zur Landkartenerzeugung erzeugte gemessene Karte angeben, werden als Probedaten auf den Server 2 hochgeladen. Die Daten Di werden auch an die Lokalisierungseinheit 17 ausgegeben. In diesem Fall enthalten die Daten Di, die von der Einheit 16 zur Landkartenerzeugung erzeugt werden, auch Informationen, die eine Montageposition des Bildsensors 3 am Fahrzeug angeben, eine Montageausrichtung des Bildsensors 3 am Fahrzeug, Spezifikationen wie eine Auflösung und einen Blickwinkel des Bildsensors 3 und dergleichen.
  • Weil die Genauigkeit des SFM begrenzt ist, ist es schwierig zu sagen, dass die Genauigkeit der gemessenen Karte ausreichend ist. Daher überlagert die Integrationseinheit 11 des Servers 2 eine Vielzahl von gemessenen Karten basierend auf den Daten Di, die von der Bordvorrichtung jedes Fahrzeugs übertragen werden, integriert die gemessenen Karten und verbessert dadurch die Genauigkeit der Karte, wie im Folgenden ausführlich beschrieben. Die Aktualisierungseinheit 12 des Servers 2 aktualisiert die integrierte Karte, wenn die Integration durch die Integrationseinheit 11 erfolgreich ist. Der Server 2 liefert Daten Dj, die die integrierte Karte anzeigen, an die On-Board-Vorrichtungen der einzelnen Fahrzeuge. In diesem Fall erkennt der Server 2 eine ungefähre Position eines Fahrzeugs, das ein zu belieferndes Ziel ist, und liefert die integrierte Karte einer Umgebung der ungefähren Position (z. B. eines Gebiets innerhalb eines Radius von mehreren km um die ungefähre Position). Dabei können, wenn eine Karte in der fahrzeuginternen Vorrichtung vorhanden ist, Unterschiede gegenüber der Karte geliefert werden.
  • Die Lokalisierungseinheit 17 führt eine Lokalisierung durch, um eine aktuelle Position des eigenen Fahrzeugs zu schätzen. Die Lokalisierungseinheit 17 lädt die Daten Dj, die die integrierte Karte angeben, vom Server 2 herunter und führt die Lokalisierung der integrierten Karte basierend auf den heruntergeladenen Daten Dj, den Daten Di, die die gemessene Karte angeben, und den Daten Db durch, die das vom Bildsensor 3 aufgenommene Bild angeben. Hier kann die Lokalisierungseinheit 17 die Lokalisierung auch ohne die Daten Di durchführen, die die gemessene Karte anzeigen.
  • Wenn die Lokalisierung erfolgreich ist, berechnet die Lokalisierungseinheit 17 die auf den Karteninformationen basierenden Straßenparameter. Die Lokalisierungseinheit 17 gibt Daten Dk, die die Straßenparameter angeben, die auf den Karteninformationen basieren, an die Fahrzeugsteuereinheit 4 aus. Die Fahrzeugsteuereinheit 4 führt verschiedene Abläufe zur Steuerung der Fahrt des eigenen Fahrzeugs basierend auf den Daten Dg, die von der Einheit 15 zur Erfassung von Orientierungspunkten bereitgestellt werden, und den Daten Dk durch, die von der Lokalisierungseinheit 17 bereitgestellt werden. Das heißt, die Fahrzeugsteuereinheit 4 führt basierend auf den Straßenparametern verschiedene Abläufe zur Steuerung der Fahrt des eigenen Fahrzeugs durch.
  • Wie bereits im Hinblick auf die herkömmliche Technologie beschrieben wurde, können die Daten Di verzerrt sein, die von den fahrzeuginternen Vorrichtungen 9 übertragen werden, die an einer Vielzahl von Fahrzeugen angebracht sind. Daher bestimmt die Integrationseinheit 11 des Servers 2 die Verzerrung bzw. den Bias in den Datenstücken Di, die von den an zahlreichen Fahrzeugen montierten fahrzeuginternen Vorrichtungen 9 übertragen werden. Die Integrationseinheit 11 gewichtet die Datenstücke Di basierend auf dem Bias in den Datenstücken Di und erzeugt eine Karte, indem sie zumindest einen Teil der Vielzahl von Datenstücken Di basierend auf der Gewichtung integriert. Hier entsprechen die von der Integrationseinheit 11 durchgeführten Abläufe einer Integrationseinrichtung.
  • Wie in 2 gezeigt ist, umfasst die Integrationseinheit 11 Funktionsblöcke wie eine Bias-Bestimmungseinheit 22 bzw. eine Einheit 22 zur Bestimmung der Verzerrung, eine Ausmerz-Verarbeitungseinheit 23 und eine Einheit 24 für gewichtete Integration. Die Bias-Bestimmungseinheit 22 führt einen Vorgang durch, um eine Verzerrung bzw. einen Bias in den Datenstücken Di zu bestimmen, die von der Vielzahl von Fahrzeugen übertragen werden, und gibt Daten DI an die Ausmerz-Verarbeitungseinheit 23 aus, die ihre Verarbeitungsergebnisse anzeigen. Die Bias-Bestimmungseinheit 22 kann eine Verzerrung in den Datenstücken Di bestimmen, die auf mindestens entweder der Montageposition des Bildsensors 3 am Fahrzeug, der Montageausrichtung zum Fahrzeug, die einen Höhenwinkel, einen Neigungswinkel und dergleichen des Bildsensors 3 beeinflusst, und Spezifikationen wie der Auflösung und dem Sichtwinkel des Bildsensors 3 basiert. Darüber hinaus kann die Bias-Bestimmungseinheit 22 eine Verzerrung in den Datenstücken Di bestimmen, die auf der Fahrgeschwindigkeit des Fahrzeugs basiert. Darüber hinaus kann die Bias-Bestimmungseinheit 22 eine Verzerrung in den Datenstücken Di bestimmen, die auf einer Umgebung des Fahrzeugs basiert.
  • Die Ausmerz-Verarbeitungseinheit 23 führt einen Ausmerzvorgang durch, bei dem nicht benötigte Daten aus der Vielzahl von Datenstücken Di ausgemerzt werden, und gibt Daten Dm an die Einheit 24 für gewichtete Integration aus, die Verarbeitungsergebnisse anzeigen. Die Einheit 24 für gewichtete Integration führt einen Integrationsprozess durch, bei dem Datenstücke aus der Vielzahl von Datenstücken Di mit Ausnahme der unnötigen Daten überlagert und basierend auf den Daten Dm integriert werden. In diesem Fall kann die Einheit 24 für gewichtete Integration die Datenstücke Di basierend auf der Schätzgenauigkeit der Eigenbewegungs-Berechnungseinheit 14 bezüglich des Verhaltens des eigenen Fahrzeugs gewichten, also der Schätzgenauigkeit, wenn das Verhalten des eigenen Fahrzeugs unter Verwendung des Bildes, das zu den Daten Db passt, und mittels des SFM-Verfahrens eingeschätzt wird.
  • Genauer gesagt kann die Integrationseinheit 11 die Datenstücke Di so gewichten, dass eine Prioritätsstufe der Daten Di, für die die vorstehend erläuterte Schätzgenauigkeit als relativ hoch bestimmt wird, höher ist als eine Prioritätsstufe der Daten Di, für die die Schätzgenauigkeit als relativ niedrig bestimmt wird. Die Integrationseinheit 11 kann die Kartenerstellung durchführen, indem sie bevorzugt die Daten Di verwendet, die als Ergebnis einer derartigen Gewichtung eine höhere Prioritätsstufe besitzen.
  • Nachfolgend werden konkrete Anwendungsbeispiele für die von der Integrationseinheit 11 durchgeführten Abläufe beschrieben. Als Abläufe, die von der Integrationseinheit 11 ausgeführt werden, werden hier Abläufe beschrieben, die jeweils von den in der Integrationseinheit 11 vorgesehenen Funktionsblöcken ausgeführt werden.
  • [1] Erstes Anwendungsbeispiel
  • Ein erstes Anwendungsbeispiel bezieht sich auf die Montageposition, die Lage, die Spezifikationen und dergleichen des Bildsensors 3. In Bezug auf die Montageposition, die Lage, die Spezifikationen und dergleichen des Bildsensors 3 gibt es solche, die unter bestimmten Bedingungen aus der Perspektive der Verbesserung der Genauigkeit der Kartenerzeugung als vorteilhaft angesehen werden können, und solche, die unter anderen Bedingungen als nachteilig angesehen werden können.
  • Ist der Bildsensor 3 beispielsweise hoch montiert, kann der Abstand zu einem Zielobjekt, das sich in einer relativ hohen Position befindet, wie z.B. einem über einer Schnellstraße angebrachten Schild, kleiner werden und die Sichtbarkeit des Zielobjekts kann sich verbessern. Umgekehrt kann der Abstand zu einem Zielobjekt, das sich in einer relativ niedrigen Position befindet, wie z. B. eine Straßenmarkierung, größer werden und die Sichtbarkeit des Zielobjekts kann sich verschlechtern. Ist der Bildsensor 3 relativ niedrig montiert, kann der Abstand zu einem Zielobjekt geringer werden, das sich an einer relativ niedrigen Position befindet, und die Sichtbarkeit des Zielobjekts wird besser. Umgekehrt wird der Abstand zu einem Zielobjekt größer, das sich in einer relativ hohen Position befindet, und die Sichtbarkeit des Zielobjekts kann schlechter werden.
  • Als ein Ergebnis des Vorstehenden nimmt die Genauigkeit der Informationen in Bezug auf ein Zielobjekt ab, das sich in einer relativ niedrigen Position befindet, wenn die Datenstücke Di hin zu Daten verzerrt sind, bei denen die Montageposition des Bildsensors 3 hoch ist. Wenn die Datenstücke Di hin zu Daten verzerrt sind, bei denen die Montageposition des Bildsensors 3 niedrig ist, nimmt die Genauigkeit der Informationen in Bezug auf ein Zielobjekt ab, das sich in einer relativ hohen Position befindet. Daher führt die Integrationseinheit 11 den Ausmerzvorgang, den Integrationsvorgang und dergleichen durch, so dass die Datenstücke Di gleichmäßig integriert werden können, bei denen die Montagepositionen bzw. Montagehöhen der Bildsensoren 3 variieren. Folglich wird eine Abnahme der Genauigkeit hinsichtlich der vorstehend erläuterten Informationen vermieden.
  • Die Integrationseinheit 11 kann auch einen Vorgang wie den nachstehend erläuterten durchführen, um die Genauigkeit der Informationen in Bezug auf ein bestimmtes Zielobjekt zu verbessern. Um die Genauigkeit von Informationen zu verbessern, die sich auf ein Zielobjekt beziehen, das an einer relativ hohen Position vorhanden ist, kann die Integrationseinheit 11 also eine Gewichtung derart durchführen, dass die Prioritätsstufe der Daten Di höher ist, bei denen die Höhe der Montageposition des Bildsensors 3 relativ hoch ist. Darüber hinaus kann die Integrationseinheit 11 zur Verbesserung der Genauigkeit von Informationen, die sich auf ein Zielobjekt beziehen, das sich in einer relativ niedrigen Position befindet, eine Gewichtung so durchführen, dass die Prioritätsstufe der Daten Di höher ist, bei denen die Höhe der Montageposition des Bildsensors 3 relativ niedrig ist.
  • Darüber hinaus ist eine Größe des Flusses bzw. der Bewegung eines Zielobjekts auf gleicher Höhe wie die Höhe der Montageposition des Bildsensors 3 weniger offensichtlich. Daher kann die Integrationseinheit 11 eine Gewichtung so durchführen, dass die Prioritätsstufe der Daten Di höher ist, die ein Zielobjekt umfassen, dessen Abweichung von der Höhe der Montageposition des Bildsensors 3 groß ist. Folglich kann die Genauigkeit der Informationen verbessert werden, die sich auf ein bestimmtes Zielobjekt beziehen.
  • Ist der Blickwinkel des Bildsensors 3 relativ groß, ist dies vorteilhaft für die Erfassung von Informationen über ein Zielobjekt, das sich in einer Position befindet, die relativ nahe am Fahrzeug liegt. Umgekehrt ist dies nachteilig für die Erfassung von Informationen über ein Zielobjekt, das sich in einer Position befindet, die relativ weit vom Fahrzeug entfernt ist. Ist der Blickwinkel des Bildsensors 3 relativ eng, ist dies vorteilhaft für die Erfassung von Informationen über ein Zielobjekt, das sich in einer Position befindet, die relativ weit vom Fahrzeug entfernt ist. Umgekehrt ist dies nachteilig für die Erfassung von Informationen über ein Zielobjekt, das sich in einer Position befindet, die relativ nahe beim Fahrzeug liegt.
  • Sind die Datenstücke Di hin zu Daten verzerrt, bei denen der Blickwinkel des Bildsensors 3 groß ist, verringert sich die Genauigkeit der Informationen über ein Zielobjekt, das sich in einer relativ weit vom Fahrzeug entfernten Position befindet. Sind die Datenstücke Di hin zu Daten verzerrt, bei denen der Blickwinkel des Bildsensors 3 eng ist, nimmt die Genauigkeit der Informationen in Bezug auf ein Zielobjekt ab, das sich in einer Position befindet, die relativ nahe beim Fahrzeug liegt. Daher führt die Integrationseinheit 11 den Auslesevorgang, den Integrationsvorgang und dergleichen so durch, dass die Datenstücke Di, für die die Blickwinkel der Bildsensoren 3 variieren, gleichmäßig integriert werden können. Infolgedessen wird eine Abnahme der Genauigkeit hinsichtlich der vorstehend erläuterten Informationen vermieden.
  • Die Integrationseinheit 11 kann auch einen Vorgang wie den folgenden durchführen, um die Genauigkeit der Informationen in Bezug auf ein bestimmtes Zielobjekt zu verbessern. Das heißt, um die Genauigkeit von Informationen zu verbessern, die sich auf ein Zielobjekt beziehen, das sich in einer Position befindet, die relativ nahe beim Fahrzeug ist, kann die Integrationseinheit 11 eine Gewichtung so durchführen, dass die Prioritätsstufe der Daten Di höher ist, für die der Blickwinkel des Bildsensors 3 relativ weit ist. Darüber hinaus kann die Integrationseinheit 11 zur Verbesserung der Genauigkeit von Informationen, die sich auf ein Zielobjekt beziehen, das sich in einer Position befindet, die relativ weit vom Fahrzeug entfernt ist, eine Gewichtung so durchführen, dass die Prioritätsstufe der Daten Di höher ist, für die der Blickwinkel des Bildsensors 3 relativ eng ist.
  • Was die Auflösung des Bildsensors 3 betrifft, so wird eine höhere Auflösung im Allgemeinen als vorteilhafter angesehen, um die Genauigkeit der Kartenerstellung zu verbessern. Daher kann die Integrationseinheit 11 eine Gewichtung so vornehmen, dass die Prioritätsstufe der Daten Di höher ist, bei denen die Auflösung des Bildsensors 3 relativ hoch ist. Soll jedoch die Genauigkeit von Informationen verbessert werden, die sich auf ein Zielobjekt beziehen, das sich in einer Position befindet, die relativ nahe am Fahrzeug ist, oder soll die Genauigkeit von Informationen verbessert werden, die sich auf ein Zielobjekt beziehen, das sich in einer relativ weit vom Fahrzeug entfernten Position befindet, ist es erforderlich, dass die Prioritätsstufe auch anhand des Blickwinkels festgelegt wird, statt einfach die Prioritätsstufe der Daten Di zu erhöhen, deren Auflösung hoch ist.
  • Im Fall der Daten Di, die Bilddaten umfassen, die so erfasst werden, dass der Bildsensor 3 ein Zielobjekt frontal erfasst, kann die Genauigkeit der Entfernungsschätzung durch SFM abnehmen, weil sich das Zielobjekt kaum in seitlicher Richtung bewegt. Daher kann die Integrationseinheit 11 eine Gewichtung so durchführen, dass die Prioritätsstufe der Daten Di höher ist, die Bilddaten enthalten, in denen ein gleiches Zielobjekt von einer benachbarten Fahrspur erfasst wird. Infolgedessen kann die Integrationseinheit 11 die Karte erzeugen, indem sie bevorzugt die Daten Di verwendet, die Bilddaten enthalten, in denen das Zielobjekt so abgebildet ist, dass es aus einem Winkel erfasst wird. Daher verbessert sich deren Genauigkeit.
  • Eine Abfolge von Vorgängen, die die Integrationseinheit 11 im ersten Anwendungsbeispiel wie vorstehend erläutert durchführt, ist in 3 zusammengefasst. Wie in 3 gezeigt ist, wird in Schritt S101 die Verzerrung bzw. der Bias in den Datenstücken Di bestimmt, die bzw. der auf der Montageposition und/oder der Ausrichtung und/oder den Spezifikationen des Bildsensors 3 basiert. Nach der Durchführung von Schritt S101 geht die Integrationseinheit 11 zu Schritt S102 weiter und bestimmt, ob ein bestimmtes Zielobjekt anvisiert wird, oder genauer gesagt, ob die Genauigkeit der Informationen verbessert werden muss, die sich auf ein bestimmtes Zielobjekt beziehen. Muss hier die Genauigkeit der Informationen in Bezug auf ein bestimmtes Zielobjekt verbessert werden, fällt die Integrationseinheit 11 in Schritt S102 das Urteil „JA“ und fährt mit Schritt S103 fort.
  • In Schritt S103 werden der Ausmerzvorgang und der Integrationsprozess so durchgeführt, dass die Prioritätsstufe der vorab festgelegten Daten zur Verbesserung der Genauigkeit der Informationen in Bezug auf das spezifische Zielobjekt höher wird. Muss die Genauigkeit der Informationen nicht verbessert werden, die sich auf ein bestimmtes Zielobjekt beziehen, fällt die integrierte Einheit 11 währenddessen in Schritt S102 das Urteil „NEIN“ und geht zu Schritt S104 weiter. In Schritt S104 werden der Ausmerzvorgang und der Integrationsvorgang so durchgeführt, dass der Bias in den in Schritt S101 bestimmten Daten reduziert wird. Nachdem die Schritte S103 und S104 durchgeführt wurden, ist das vorliegende Verfahren beendet.
  • [2] Zweites Anwendungsbeispiel
  • Ein zweites Anwendungsbeispiel bezieht sich auf die Fahrgeschwindigkeit des Fahrzeugs. Es wird angenommen, dass mit zunehmender Fahrgeschwindigkeit des Fahrzeugs die Genauigkeit des SFM zunimmt, weil eine Grundlinie länger wird. Ist die Fahrgeschwindigkeit des Fahrzeugs jedoch zu hoch, kann die Genauigkeit des SFM abnehmen, weil eine Anzahl der Frames abnimmt, die zur Bestimmung nutzbar sind. Daher führt die Integrationseinheit 11 den Ausmerzvorgang, den Integrationsvorgang und dergleichen so durch, dass die Datenstücke Di gleichmäßig integriert werden können, bei denen die Fahrgeschwindigkeiten der Fahrzeuge variieren. Folglich wird die Abnahme der Genauigkeit des SFM vermieden.
  • Können jedoch die Datenstücke Di, bei denen die Fahrgeschwindigkeiten des Fahrzeugs variieren, auf diese Weise gleichmäßig integriert werden, kann eine Anzahl von Bestimmungen bezüglich eines bestimmten Zielobjekts unzureichend sein, das sich in der Nähe des Fahrzeugs befindet. Die Genauigkeit des SFM in Bezug auf dieses Zielobjekt kann geringer sein als eine vorgegebene Bestimmungsgenauigkeit. In diesem Fall kann ein Wert für die Bestimmungsgenauigkeit basierend auf den Spezifikationen des Kartensystems 1 geeignet festgelegt werden. Wenn festgestellt wird, dass die Genauigkeit in Bezug auf das spezifische Zielobjekt nicht zur Bestimmungsgenauigkeit basierend auf der Fahrgeschwindigkeit des Fahrzeugs passt, kann die Integrationseinheit 11 die Datenstücke Di wie folgt gewichten. Das heißt, die Integrationseinheit 11 kann die Daten Di so gewichten, dass die Prioritätsstufe der Daten Di, bei denen die Fahrgeschwindigkeit des Fahrzeugs relativ langsam ist, höher ist als die Prioritätsstufe der Daten Di, bei denen die Fahrgeschwindigkeit des Fahrzeugs relativ schnell ist. Dadurch kann die Anzahl der Erfassungen für das spezifische Zielobjekt erhöht werden. Folglich kann die Genauigkeit des SFM verbessert werden.
  • Fährt das Fahrzeug beispielsweise auf einem Abschnitt einer Schnellstraße oder dergleichen, in dem kontinuierlich Lärmschutzwände gleicher Form vorhanden sind, kann abhängig von der Fahrgeschwindigkeit des Fahrzeugs und einem Wiederholungsintervall eines Musters, das von den Lärmschutzwänden gebildet wird, ein Fehler bei der Zuordnung der Orientierungspunkte durch die SFM-Erkennungseinheit 18, also eine fehlerhafte Zuordnung auftreten. Die Genauigkeit des SFM kann abnehmen. Um die Genauigkeit in Bezug auf ein Zielobjekt wie die vorstehend erläuterten Lärmschutzwände zu verbessern, kann die Integrationseinheit 11 die Datenstücke Di integrieren, bei denen die Fahrgeschwindigkeiten der Fahrzeuge variieren, und die Prioritätsstufe der Daten Di senken oder solche Daten Di eliminieren, bei denen ein großer bzw. deutlicher Ausreißerwert vorliegt.
  • Ein Ablaufplan, der von der Integrationseinheit 11 in dem zweiten Anwendungsbeispiel wie dem obigen durchgeführt wird, ist wie in 4 gezeigt zusammengefasst. Wie in 4 gezeigt ist, wird in Schritt S201 der Bias in den Datenstücken Di bestimmt, der auf der Fahrgeschwindigkeit des Fahrzeugs basiert. Nach der Durchführung von Schritt S201 geht die Integrationseinheit 11 zu Schritt S202 über und bestimmt, ob ein bestimmtes Zielobjekt anvisiert wird oder genauer gesagt, ob die Genauigkeit der Informationen in Bezug auf ein bestimmtes Zielobjekt verbessert werden muss. Muss hier die Genauigkeit der Informationen in Bezug auf ein bestimmtes Zielobjekt verbessert werden, fällt die Integrationseinheit 11 in Schritt S202 das Urteil „JA“ und fährt mit Schritt S203 fort.
  • In Schritt S203 werden der Ausmerzvorgang und der Integrationsvorgang so durchgeführt, dass die Prioritätsstufe der vorab festgelegten Daten zur Verbesserung der Genauigkeit der Informationen hinsichtlich des spezifischen Zielobjekts höher oder niedriger wird. Muss die Genauigkeit der Informationen nicht verbessert werden, die sich auf ein bestimmtes Zielobjekt beziehen, fällt die Integrationseinheit 11 in Schritt S202 das Urteil „NEIN“ und geht zu Schritt S204 weiter. In Schritt S204 werden der Ausmerzvorgang und der Integrationsvorgang so durchgeführt, dass der Bias der in Schritt S201 bestimmten Daten veringert wird. Nachdem die Schritte S203 und S204 durchgeführt wurden, wird das vorliegende Verfahren beendet.
  • [3] Drittes Anwendungsbeispiel
  • Ein drittes Anwendungsbeispiel bezieht sich auf die Umgebung, wie z.B. die Helligkeit in einer Umgebung des Fahrzeugs. Ist die Helligkeit der Umgebung des Fahrzeugs hoch, wird dies aus der Perspektive der Verbesserung der Genauigkeit der Kartenerstellung als vorteilhaft angesehen, da das Rauschen abnimmt, das die Genauigkeit des SFM beeinträchtigt. Ist die Umgebung des Fahrzeugs hell, kann jedoch ein Teil der elektronischen Anzeigen und dergleichen überblendet werden und nicht mehr sichtbar sein, oder es kann zu einem Flackern bei elektronischen Schildern kommen. Folglich kann die Genauigkeit in Bezug auf diese Zielobjekte abnehmen.
  • Daher führt die Integrationseinheit 11 den Ausmerzvorgang, den Integrationsvorgang und dergleichen so durch, dass die Datenstücke Di, die Bilddaten enthalten, in denen die Helligkeit des Umgebungsbereichs des Fahrzeugs variiert, gleichmäßig integriert werden können, oder anders gesagt so, dass die Daten Di, die Bilddaten umfassen, die am Tage aufgenommen wurden, also während eines Zeitraums, in dem die Helligkeit des Umgebungsbereichs des Fahrzeugs hoch ist, und die Daten Di gleichmäßig integriert werden können, die Bilddaten enthalten, die während der Nacht aufgenommen wurden, also während eines Zeitraums, in dem die Helligkeit des Umgebungsbereichs des Fahrzeugs gering ist. Folglich wird eine Abnahme der Genauigkeit des SFM unterdrückt.
  • Die Integrationseinheit 11 kann auch einen Ablauf wie den nachstehenden durchführen, um die Genauigkeit der Informationen in Bezug auf ein bestimmtes Zielobjekt zu verbessern. Um die Genauigkeit von Informationen zu verbessern, die sich auf ein anderes Zielobjekt als den vorstehend erläuterten Abschnitt aus elektronischen Anzeigen und elektronischen Schildern und dergleichen beziehen, kann die Integrationseinheit 11 nämlich eine Gewichtung so durchführen, dass die Prioritätsstufe der Daten Di höher ist, die Bilddaten umfassen, die während eines Zeitraums, z. B. tagsüber, erfasst werden, während dessen die Helligkeit der Umgebung des Fahrzeugs hoch ist. Um die Genauigkeit von Informationen zu verbessern, die sich auf ein Zielobjekt beziehen, wie z.B. den Teil der vorstehend erläuterten elektronischen Anzeigen und elektronischen Schilder, kann die Integrationseinheit 11 außerdem eine Gewichtung so durchführen, dass die Prioritätsstufe der Daten Di höher ist, die Bilddaten enthalten, die während eines Zeitraums, z.B. nachts, erfasst wurden, in dem die Helligkeit der Umgebung des Fahrzeugs gering ist.
  • Eine Abfolge von Vorgängen, die von der Integrationseinheit 11 im dritten Anwendungsbeispiel wie vorstehend erläutert durchgeführt werden, wird in 5 zusammengefasst. Wie in 5 gezeigt ist, wird in Schritt S301 der Bias in den Datenstücken Di bestimmt, der auf der Helligkeit der Umgebung des Fahrzeugs basiert. Nach der Durchführung des Schritts S301 geht die Integrationseinheit 11 zu Schritt S302 weiter und bestimmt, ob ein bestimmtes Zielobjekt anvisiert wird oder ob genauer gesagt verlangt wird, die Genauigkeit der Informationen hinsichtlich eines bestimmten Zielobjekts zu verbessern. Wird hier verlangt, die Genauigkeit der Informationen hinsichtlich eines bestimmten Zielobjekts zu verbessern, fällt die Integrationseinheit 11 in Schritt S302 das Urteil „JA“ und geht zu Schritt S303 weiter.
  • In Schritt S303 werden der Ausmerzvorgang und der Integrationsvorgang so durchgeführt, dass die Prioritätsstufe vorab festgelegter Daten zur Verbesserung der Genauigkeit der Informationen in Bezug auf das spezifische Zielobjekt höher wird. Wenn die Genauigkeit der Informationen, die sich auf ein bestimmtes Zielobjekt beziehen, nicht verbessert werden muss, fällt die Integrationseinheit 11 in Schritt S302 das Urteil „NEIN“ und geht zu Schritt S304 weiter. In Schritt S304 werden der Ausmerzvorgang und der Integrationsvorgang so durchgeführt, dass der Bias in den in Schritt S301 bestimmten einzelnen Daten verringert wird. Nach der Durchführung der Schritte S303 und S304 wird der vorliegende Ablauf beendet.
  • [4] Viertes Anwendungsbeispiel
  • Ein viertes Anwendungsbeispiel bezieht sich auf einen Zustand des Fahrzeugs. Unmittelbar nach dem Einschalten der Zündung des Fahrzeugs nimmt die Genauigkeit der Korrektur des Skalierungsfaktors durch die SF-Korrektureinheit 13 ab. Folglich kann die Genauigkeit des SFM abnehmen. Daher führt die Integrationseinheit 11 eine Gewichtung so durch, dass die Prioritätsstufe der Daten Di niedriger ist, bei denen die verstrichene Zeit ab dem Einschalten des Zündschalters des Fahrzeugs relativ kurz ist. Folglich wird eine Verringerung der Genauigkeit des SFM unterdrückt.
  • [5] Fünftes Anwendungsbeispiel
  • Ein fünftes Anwendungsbeispiel bezieht sich auf einen Zeitabschnitt der Bildgebung. Es gibt Straßen, deren Klassifizierung sich je nach Zeitabschnitt ändert. Spezifische Informationen, die sich auf solche Straßen beziehen, können nur während einer bestimmten Zeit genau erfasst werden. Daher führt die Integrationseinheit 11 den Ausmerzvorgang, den Integrationsprozess und dergleichen so durch, dass die Datenstücke Di, bei denen die Zeiträume der Aufnahme von Bilddaten variieren, gleichmäßig integrierbar sind. Folglich können Informationen genau erfasst werden, die sich auf eine Straße beziehen, deren Klassifizierung sich in Abhängigkeit vom Zeitabschnitt ändern.
  • Wie vorstehend erläutert, ist das Kartensystem 1 gemäß der vorliegenden Ausführungsform ein System, das die fahrzeuginterne Vorrichtung 9 umfasst, die den Bildsensor 3 enthält, der an einem Fahrzeug angebracht ist und ein Bild der Umgebung des Fahrzeugs aufnimmt, und den Server 2, der eine Karte anhand von Daten erzeugt, die dem vom Bildsensor 3 aufgenommenen Bild entsprechen, das von der fahrzeuginternen Vorrichtung 9 übertragen wird. Die Steuervorrichtung 10 des Servers 2 umfasst die Integrationseinheit 11, die Daten, die von einer Vielzahl von fahrzeuginternen Vorrichtungen 9 übertragen werden, auf der Grundlage eines Bias bzw. einer Verzerrung in den Daten gewichtet und mindestens einen Teil der Vielzahl von Daten basierend auf der Gewichtung integriert.
  • Im vorstehend erläuterten Aufbau wird selbst dann, wenn eine Verzerrung in den einzelnen Daten vorhanden ist, also in den einzelnen Messdaten, die von einer Vielzahl von fahrzeuginternen Vorrichtungen 9 an den Server 2 übertragen werden, eine Gewichtung der einzelnen Daten basierend auf der Verzerrung durchgeführt, und die Karte wird unter Berücksichtigung der Gewichtung erzeugt. Infolge eines solchen Aufbaus kann der Server 2 selbst dann, wenn die Anzahl der von den fahrzeuginternen Vorrichtungen 9 an den Server 2 übertragenen einzelnen Daten gering ist, eine Karte erzeugen, die im Vergleich zur Vergangenheit eine höhere Genauigkeit aufweist. Daher kann gemäß der vorliegenden Ausführungsform ein hervorragender Effekt zur Verbesserung der Genauigkeit der Kartenerzeugung im Server 2 erzielt werden.
  • Im ersten Anwendungsbeispiel, im zweiten Anwendungsbeispiel, im dritten Anwendungsbeispiel und im vierten Anwendungsbeispiel, die spezifische Anwendungsbeispiele der Verfahren gemäß der vorliegenden Ausführungsform sind, kann die Integrationseinheit 11 die Datenstücke Di so gewichten, dass die Prioritätsstufe der Daten Di, bei denen die Genauigkeit der Schätzung des Verhaltens des eigenen Fahrzeugs mittels des SFM-Verfahrens als relativ hoch bestimmt wird, höher ist als die Prioritätsstufe der Daten Di, bei denen die vorstehend erläuterte Genauigkeit der Schätzung als relativ niedrig bestimmt wird. Die Integrationseinheit 11 kann die Kartenerstellung durchführen, indem sie bevorzugt die Daten Di verwendet, die aufgrund der durchgeführten Gewichtung eine höhere Priorität besitzen. Die vorstehend erläuterte Verbesserung der Genauigkeit der SFM kann als Indikator für die Verbesserung der Genauigkeit der integrierten Karte im Server 2 dienen. Daher kann die Genauigkeit der Kartenerzeugung im Server 2 durch die vorstehend erläuterten spezifischen Abläufe weiter verbessert werden.
  • Eine zweite Ausführungsform wird nachstehend anhand von 6 bis 9 beschrieben.
  • Wie in 6 gezeigt wird, unterscheidet sich ein Kartensystem 31 gemäß der vorliegenden Ausführungsform vom Kartensystem 1 gemäß der ersten Ausführungsform dadurch, dass eine fahrzeuginterne Vorrichtung 32 anstelle der fahrzeuginternen Vorrichtung 9 und dergleichen vorgesehen ist. Eine Steuervorrichtung 33 der fahrzeuginternen Vorrichtung 32 unterscheidet sich von der Steuervorrichtung 8 der fahrzeuginternen Vorrichtung 9 dadurch, dass zwei Funktionsblöcke, nämlich eine Einheit 34 zur Abschätzung der Straßensteigung und eine Einheit 35 zur Abschätzung der Sichtbarkeit, hinzugefügt sind, und eine Landkartenerzeugungseinheit 36 anstelle der Einheit 16 zur Landkartenerzeugung vorgesehen ist.
  • Die Einheit 34 zur Abschätzung der Straßensteigung führt ein vorab festgelegtes maschinelles Lernen basierend auf den Daten Db durch, die das vom Bildsensor 3 aufgenommene Bild wiedergeben, und schätzt dadurch eine Steigung bzw. ein Gefälle einer Straße in dem vom Bildsensor 3 aufgenommenen Bild ab. Die Einheit 34 zur Abschätzung der Straßensteigung gibt Daten Dn, die die geschätzte Straßensteigung angeben, an die Landkartenerzeugungseinheit 36 aus. Die Einheit 35 zur Abschätzung der Sichtbarkeit führt ein vorab festgelegtes maschinelles Lernen basierend auf den Daten Db durch, die das vom Bildsensor 3 aufgenommene Bild wiedergeben, und schätzt so die Sichtfähigkeit des Bildsensors 3. Die Einheit 35 zur Abschätzung der Sichtbarkeit gibt die geschätzte Sichtbarkeit angebende Daten Do an die Landkartenerzeugungseinheit 36 ab.
  • Die Landkartenerzeugungseinheit 36 umfasst eine KarteninformationsErzeugungseinheit 37 und eine Einheit 38 zum Zuordnen der Verlässlichkeit. Die Landkartenerzeugungseinheit 36 erhält zusätzlich zu den Daten De von der Eigenbewegungs-Berechnungseinheit 14 auch die Daten Dd. Die KarteninformationsErzeugungseinheit 37 erzeugt Karteninformationen auf ähnliche Weise wie die Einheit 16 zur Landkartenerzeugung gemäß der ersten Ausführungsform. Die Einheit 38 zum Zuordnen der Verlässlichkeit ordnet den Daten Di Informationen zum Grad der Verlässlichkeit zu. Die Informationen zum Grad der Verlässlichkeit sind Informationen, die sich auf einen Grad der Verlässlichkeit der Daten beziehen, die zu dem vom Bildsensor 3 aufgenommenen Bild gehören. Die Einheit 38 zum Zuordnen der Verlässlichkeit bewertet das Ausmaß der Verlässlichkeit von Daten, die zu einem Bild gehören, basierend auf Basisdaten für das Ausmaß der Verlässlichkeit, die von den Funktionsblöcken eingegeben werden. Die Einheit 38 zum Zuordnen der Verlässlichkeit erzeugt dann die Information über das Ausmaß der Verlässlichkeit basierend auf dem Bewertungsergebnis.
  • Die Information über das Ausmaß der Verlässlichkeit ist eine Information, die in der Integrationseinheit 11 des Servers 2 genutzt wird. Wie vorstehend erläutert, gewichtet die Integrationseinheit 11 also die Datenstücke Di basierend auf Verzerrungen in den Datenstücken, die zu Bildern gehören, die von einer Vielzahl von fahrzeuginternen Vorrichtungen übertragen werden, integriert zumindest einen Teil der Vielzahl von Datenstücken Di basierend auf der Gewichtung und erzeugt eine Karte. In diesem Fall erzeugt die Integrationseinheit 11 die Karte durch Integration der einzelnen Daten Di unter Berücksichtigung der Informationen über das Ausmaß der Verlässlichkeit, die zu den Daten Di zugeordnet sind. Zum Beispiel kann die Integrationseinheit 11 die Integration durchführen, indem sie bevorzugt die Daten Di verwendet, denen die Information über das Ausmaß der Verlässlichkeit zugeordnet ist, die einen relativ hohen Grad der Verlässlichkeit anzeigt. Hier beziehen sich die „Daten, die zu einem Bild gehören“ nicht auf Daten, die sich auf die Abbildungsbedingungen eines Bildes durch den Bildsensor 3 beziehen, also lediglich auf Informationen zu Orientierungspunkten und Fahrspuren, sondern auf Daten wie die Montageposition, den Sichtwinkel und die Auflösung des Bildsensors 3 sowie die Fahrzeuggeschwindigkeit, die Fahrzeugumgebung und das Ausmaß der Verlässlichkeit.
  • Als die Basisdaten des Ausmaßes der Verlässlichkeit, bei denen der Ursprung der Information die Daten Dd sind, die von der Eigenbewegungs-Berechnungseinheit 14 eingegeben werden, kann ein SFM-Flag für geringe Genauigkeit angegeben werden. Das SFM-Flag für geringe Genauigkeit wird aktiviert, wenn die geschätzte Genauigkeit der Eigenbewegung abgenommen haben könnte. Als Basisdaten des Ausmaßes der Verlässlichkeit, bei denen der Ursprung der Information die Daten Dh sind, die von der Einheit 15 zur Erfassung von Orientierungspunkten eingelesen werden, können eine Aufstellposition, eine Größe, ein Typ, eine Farbe, ein Erfolgszähler für die SFM-Positionsschätzung, ein kontinuierlicher Extrapolationszählwert, eine Position zum Zeitpunkt des Erfolgs der SFM-Positionsschätzung, eine Anzahl von SFM-Punkten, ein Variationsgrad in SFM-Punktgruppen, Attribute von SFM-Punktgruppen und dergleichen angegeben werden.
  • Die Aufstellposition ist eine Aufstellposition des Orientierungspunkts von einer Position des eigenen Fahrzeugs aus gesehen. Hier ist die Aufstellposition im Falle einer Grenzlinie ein Anpassungsfehler. Als spezifisches Beispiel für die Bewertung des Ausmaßes der Verlässlichkeit basierend auf der Aufstellposition kann ein Beispiel angeführt werden, bei dem die Wahrscheinlichkeit einer fehlerhaften Erkennung als hoch eingeschätzt werden kann, wenn die Aufstellposition auf einer Straßenoberfläche liegt, unabhängig davon, ob es sich beim Orientierungspunkt um ein Schild bzw. Zeichen handelt. Die Größe ist eine Größe des Orientierungspunkts. Hier ist die Größe im Fall einer Grenzlinie eine Linienbreite. Als spezifisches Beispiel für die Bewertung des Ausmaßes der Verlässlichkeit basierend auf der Größe kann ein Beispiel angeführt werden, bei dem die Wahrscheinlichkeit einer fehlerhaften Erkennung als hoch eingeschätzt werden kann, wenn vier Seiten des Orientierungspunkts weniger als 0,2 m betragen, wenn ein Seitenverhältnis einen abnormen Wert hat oder dergleichen, unabhängig davon, ob der Orientierungspunkt ein Schild ist.
  • Als ein spezifisches Beispiel für die Bewertung des Ausmaßes der Verlässlichkeit basierend auf dem Typ kann ein Beispiel angeführt werden, bei dem die Festlegung einer Art des Schilds oder der Frage, ob es sich beim Orientierungspunkt möglicherweise nicht um ein Schild handelt, durchgeführt wird, wenn es sich beim Orientierungspunkt um ein Schild handelt, und die Bestimmung des Linientyps durchgeführt wird, wenn es sich beim Orientierungspunkt um eine Grenzlinie handelt. Daher kann die Wahrscheinlichkeit einer fehlerhaften Erkennung basierend auf den Bestimmungsergebnissen oder den Identifizierungsergebnissen vermutet werden. Als spezifisches Beispiel für die Bewertung des Ausmaßes der Verlässlichkeit basierend auf der Farbe kann ein Beispiel angeführt werden, in dem bei einer Identifizierung der Linienfarbe, wenn der Orientierungspunkt eine Grenzlinie ist, die Wahrscheinlichkeit einer fehlerhaften Erkennung gegeben ist, falls die Linienfarbe weder als weiß noch als gelb bestimmt wird.
  • Der Erfolgszähler für die SFM-Positionsschätzung ist eine Anzahl von Malen, in denen die dreidimensionale Positionsschätzung anhand von SFM-Punkten erfolgreich war, oder genauer gesagt, ein integrierter Wert davon. Ein höherer Erfolgszähler für die SFM-Positionsschätzung ist besser. In diesem Fall steigt die Wahrscheinlichkeit, dass es sich bei einem Zielobjekt um einen Orientierungspunkt handelt. Daher kann als spezifisches Beispiel für die Bewertung des Ausmaßes der Verlässlichkeit basierend auf dem Erfolgszähler für die SFM-Positionsschätzung ein Beispiel angeführt werden, bei dem die Wahrscheinlichkeit besteht, dass keine Orientierungspunkte im Bild vorhanden sind, dass also ein Zielobjekt kein Orientierungspunkt ist, wenn der Erfolgszähler für die SFM-Positionsschätzung sehr niedrig ist.
  • Der Wert der kontinuierlichen Extrapolation ist eine Anzahl von Malen, in denen die Positionsschätzung durch SFM nicht durchführbar ist und eine Position basierend auf der Eigenbewegung vorhergesagt wird. Ein geringerer Wert der kontinuierlichen Extrapolation ist besser. In diesem Fall steigt die Wahrscheinlichkeit, dass es sich bei einem Zielobjekt um einen Orientierungspunkt handelt. Daher kann als spezifisches Beispiel für die Bewertung des Ausmaßes der Verlässlichkeit basierend auf dem Wert der kontinuierlichen Extrapolation ein Beispiel angeführt werden, bei dem, wenn der Wert der kontinuierlichen Extrapolation sehr hoch ist, die Wahrscheinlichkeit besteht, dass keine Orientierungspunkte im Bild vorhanden sind, dass das Zielobjekt also kein Orientierungspunkt ist, eine Wahrscheinlichkeit der Entfernungsgenauigkeit gering ist und dergleichen.
  • Die Position zum Zeitpunkt des Erfolgs der SFM-Positionsschätzung ist die Aufstellposition des Orientierungspunkts, wenn die Positionsschätzung durch SFM erfolgreich ist. Als ein spezifisches Beispiel für die Bewertung des Ausmaßes der Verlässlichkeit basierend auf der Position zum Zeitpunkt des Erfolgs der SFM-Positionsschätzung kann man ein Beispiel anführen, bei dem die Entfernungsgenauigkeit im Prinzip abnimmt, wenn die Position weiter entfernt ist. Als ein spezifisches Beispiel für die Bewertung des Ausmaßes der Verlässlichkeit basierend auf der Anzahl der SFM-Punkte kann man ein Beispiel anführen, bei dem eine Wahrscheinlichkeit, dass die Abstandsgenauigkeit hoch ist, mit der Anzahl der Orientierungspunkte zunimmt, weil die Positionsschätzung durch einen Mittelwert von Orientierungspunkten durchgeführt wird, die zum vorab festgelegten erkannten Orientierungspunkt oder dergleichen gehören.
  • Als ein spezifisches Beispiel für die Bewertung des Ausmaßes der Verlässlichkeit basierend auf dem Variationsgrad in den SFM-Punktgruppen kann man das folgende Beispiel anführen. Der Grad der Verlässlichkeit nimmt nämlich ab, wenn der Variationsgrad in den SFM-Punktgruppen zunimmt. Insbesondere sinkt die Wahrscheinlichkeit, dass es sich bei einem Zielobjekt um ein Orientierungspunkt handelt, wenn der Abstand in Tiefenrichtung variiert. Ein Grund dafür ist, dass der Abstand des Orientierungspunkts in der Tiefenrichtung der Orientierungspunkte fix sein sollte, weil der Orientierungspunkt im Allgemeinen flach ist. Variiert der Abstand in Tiefenrichtung, ist die Wahrscheinlichkeit hoch, dass es sich bei dem Zielobjekt nicht um einen Orientierungspunkt handelt.
  • Als ein spezifisches Beispiel für die Bewertung des Ausmaßes der Verlässlichkeit basierend auf den Attributen der SFM-Punktgruppen kann man das folgende Beispiel anführen. Der SFM-Punkt umfasst nämlich Informationen über Attribute der Segmentierung, also Straßenschilder, Begrenzungslinien und dergleichen. Daher steigt die Genauigkeit mit dem Anteil der Punkte, die dieselben Attribute aufweisen. Die Entfernungsgenauigkeit steigt nämlich mit dem Anteil an Orientierungspunkten, die eine anwendbare Segmentierung der Orientierungspunkte aufweisen.
  • Als die Basisdaten der Zuverlässigkeitsebene, deren Informationsursprung die Daten Dn sind, die von der Einheit 34 zur Abschätzung der Straßensteigung eingelesen werden, können ein Zustand der Abschätzung der Straßensteigung, ein Anpassungsfehler und dergleichen angegeben sein. Der Zustand der Abschätzung der Straßensteigung zeigt an, ob derzeit die Straßensteigung abgeschätzt wird. Als spezifisches Beispiel für die Bewertung des Ausmaßes der Verlässlichkeit basierend auf dem Zustand der Abschätzung der Straßensteigung kann man ein Beispiel anführen, bei dem die Genauigkeit der Daten über Steigungen und Gefälle abnimmt, wenn die Straßensteigung nicht geschätzt wird. Der Anpassungsfehler bezieht sich auf die Genauigkeit der Abschätzung der Steigung, genauer gesagt, auf einen Mittelwert der Abweichung zwischen einer Anpassungskurve und den SFM-Punkten. Als spezifisches Beispiel für die Bewertung des Ausmaßes der Verlässlichkeit basierend auf dem Anpassungsfehler kann man ein Beispiel anführen, bei dem die Genauigkeit gering ist, wenn die Abweichung des Anpassungsfehlers groß ist.
  • Als die Basisdaten des Ausmaßes der Verlässlichkeit, deren Informationsquelle die Daten Do sind, die von der Einheit 35 zur Abschätzung der Sichtbarkeit eingegeben werden, können ein Tunnelflag, ein Ausmaß des Beschlagens von Glas, ein Ausmaß der Objektivabschirmung, ein Schlechtwetterniveau, ein Gegenlichtniveau, ein Ausmaß des Anhaftens von Regentropfen, ein Ausmaß von Schnee auf der Straßenoberfläche, ein Wüsten- bzw. Sandniveau, ein Schlammniveau, ein Ausmaß der Feuchtigkeit der Straßenoberfläche und dergleichen angegeben werden. Das Tunnelflag ist ein Flag, das während der Durchfahrt durch einen Tunnel gesetzt ist. Setzt sich in einem Tunnel dauernd derselbe Hintergrund fort, führt dies zu einer Verringerung der Genauigkeit der SFM-Eigenbewegung. Daher kann eine Bewertung der Zuverlässigkeit durchgeführt werden, bei der die Genauigkeit niedrig ist, wenn das Tunnelflag gesetzt ist.
  • Das Ausmaß des Beschlagens von Glas zeigt das Ausmaß des Beschlagens der Frontscheibe des Fahrzeugs an. Basierend auf diesem Wert kann eine Bewertung der Zuverlässigkeit durchgeführt werden. Das Ausmaß der Objektivabschirmung gibt an, wie stark ein Hintergrund verdeckt ist. Anhand dieses Ausmaßes kann eine Bewertung der Zuverlässigkeit durchgeführt werden. Das Schlechtwetterniveau gibt an, wie schlecht das Wetter ist, z. B. starker Regen, dichter Nebel, starker Schneefall oder Staub. Die Bewertung der Zuverlässigkeit kann basierend auf diesem Wert erfolgen.
  • Das Gegenlichtniveau gibt das Niveau bzw. Ausmaß des Gegenlichts an, das tagsüber durch Sonnenlicht entsteht, und das Ausmaß des Gegenlichts, das nachts durch das Licht von Lampen und dergleichen entsteht. Basierend auf diesem Wert kann eine Bewertung der Zuverlässigkeit erfolgen. Das Ausmaß des Anhaftens von Regentropfen an der Frontscheibe des Fahrzeugs gibt das Ausmaß an, in dem Regentropfen an der Frontscheibe des Fahrzeugs anhaften. Anhand dieses Wertes kann eine Bewertung der Zuverlässigkeit durchgeführt werden. Das Ausmaß von Schnee auf der Straßenoberfläche zeigt an, ob Schnee auf der Straßenoberfläche vorhanden ist. Basierend auf diesem Wert kann eine Bewertung der Zuverlässigkeit erfolgen.
  • Das Wüstenniveau zeigt an, ob die Straßenoberfläche eine Wüste bzw. z.B. sandig ist. Basierend auf diesem Wert kann eine Bewertung der Zuverlässigkeit erfolgen. Das Schlammniveau zeigt an, ob die Straßenoberfläche verschlammt ist. Basierend auf diesem Wert kann eine Bewertung der Zuverlässigkeit erfolgen. Das Ausmaß der Feuchtigkeit auf der Straßenoberfläche zeigt an, ob die Straßenoberfläche durch Regen oder dergleichen nass ist. Basierend auf diesem Wert kann eine Bewertung der Zuverlässigkeit erfolgen. Die Bewertung der Zuverlässigkeit basierend auf diesen Werten kann in mehreren Stufen, z. B. drei Stufen, durchgeführt werden.
  • Als die Basisdaten des Ausmaßes der Verlässlichkeit, deren ursprüngliche Information aus den Daten Da herrührt, die GPS-Informationen anzeigen, können GNSS-Orientierungswinkel, GNSS-Geschwindigkeit, DOP und dergleichen angegeben werden. GNSS ist hier eine Abkürzung für ein Global Navigation Satellite System bzw. globales Satellitennavigationssystem. DOP ist eine Abkürzung für Dilution of Precision, also Genauigkeitsverringerung. Der GNSS-Orientierungswinkel bezeichnet einen Orientierungswinkel des Fahrzeugs, der durch GNSS-Positionierung ermittelt wird, also einen Gierwinkel. Als spezifisches Beispiel für die Bewertung des Ausmaßes der Verlässlichkeit basierend auf dem GNSS-Orientierungswinkel kann ein Beispiel angeführt werden, bei dem die GNSS-Genauigkeit als gering eingestuft werden kann, wenn der Unterschied zu einem Gierwinkel groß ist, der vom Fahrzeug durch einen Gierratensensor oder dergleichen berechnet wird.
  • Die GNSS-Geschwindigkeit ist eine Fahrgeschwindigkeit des Fahrzeugs, die man mittels GNSS-Positionierung erhält. Als spezifisches Beispiel für die Bewertung des Ausmaßes der Verlässlichkeit basierend auf der GNSS-Geschwindigkeit kann ein Beispiel angeführt werden, bei dem die GNSS-Genauigkeit als niedrig bestimmt werden kann, wenn ein Unterschied zu einer Fahrzeuggeschwindigkeit groß ist, die vom Fahrzeug mittels des Raddrehzahlsensors oder dergleichen berechnet wird. Die DOP bezieht sich auf eine Rate der Abnahme der Genauigkeit und zeigt im Allgemeinen an, dass die Genauigkeit der GNSS-Positionsbestimmungsergebnisse höher ist, wenn ihr numerischer Wert kleiner wird. Daher kann als spezifisches Beispiel für die Bewertung des Ausmaßes der Verlässlichkeit basierend auf der DOP ein Beispiel gegeben werden, in dem die Genauigkeit als höher bestimmbar ist, wenn der numerische Wert des DOP kleiner wird.
  • Auf diese Weise bewertet die Einheit 38 zum Zuordnen der Verlässlichkeit das Ausmaß der Verlässlichkeit basierend auf der Schätzgenauigkeit, wenn das Verhalten des eigenen Fahrzeugs, also das Verhalten des Fahrzeugs, anhand des Bildes, das zu den Daten Di gehört, und unter Verwendung des SFM-Verfahrens abgeschätzt wird, und erzeugt die Informationen über das Ausmaß der Verlässlichkeit basierend auf den Bewertungsergebnissen. Darüber hinaus bewertet die Einheit 38 zum Zuordnen der Verlässlichkeit das Ausmaß der Verlässlichkeit basierend auf der Schätzgenauigkeit bezüglich der Straßensteigung und erzeugt die Informationen über das Ausmaß der Verlässlichkeit basierend auf den Bewertungsergebnissen. Darüber hinaus bewertet die Einheit 38 zum Zuordnen der Verlässlichkeit das Ausmaß der Verlässlichkeit basierend auf der Schätzgenauigkeit bezüglich der Sichtfähigkeit bzw. Sichtbarkeit des Bildsensors 3 und erzeugt die Informationen über das Ausmaß der Verlässlichkeit basierend auf den Auswertungsergebnissen. Darüber hinaus bewertet die Einheit 38 zum Zuordnen der Verlässlichkeit das Ausmaß der Verlässlichkeit basierend auf den Informationen, die sich auf einen Orientierungspunkt in einem Bild beziehen, das basierend auf dem Bild erkannt wird, das zu den Daten Di passt, und erzeugt die Informationen über das Ausmaß der Verlässlichkeit basierend auf den Bewertungsergebnissen.
  • Als Nächstes wird ein spezifisches Verfahren beschrieben, das sich auf die Erzeugung von Informationen über das Ausmaß der Verlässlichkeit durch die Einheit 38 zum Zuordnen der Verlässlichkeit bezieht.
  • Erstes Verfahren
  • In einem ersten Verfahren bestimmt die Einheit 38 zum Zuordnen der Verlässlichkeit einen „Basispunkt“ und einen „Koeffizienten“ basierend auf den Basisdaten für das Ausmaß der Verlässlichkeit und bestimmt das Ausmaß der Verlässlichkeit durch Multiplikation des Basispunktes mit dem Koeffizienten. Der Grad der Verlässlichkeit kann beispielsweise in 100 Stufen festgelegt werden, die durch numerische Werte von „1“ bis „100“ angegeben werden. Der Grad der Verlässlichkeit kann sich verringern, wenn der numerische Wert kleiner wird. In diesem Fall wird der Basispunkt in ähnlicher Weise wie der Grad der Verlässlichkeit auf 100 Stufen festgelegt, die durch Zahlenwerte von „1“ bis „100“ angegeben werden.
  • Genauer gesagt berechnet die Einheit 38 zum Zuordnen der Verlässlichkeit mindestens einen Basispunkt basierend auf den Basisdaten des Ausmaßes der Verlässlichkeit. Im Falle eines Schildes ist der Basispunkt beispielsweise 100, wenn die Größe innerhalb vorgeschriebener Werte liegt und die Art des Schildes, wie z.B. ein Schild mit Tempolimit, erkannt werden kann. Dann berechnet die Einheit 38 zum Zuordnen der Verlässlichkeit mindestens einen Koeffizienten basierend auf den Basisdaten des Ausmaßes der Verlässlichkeit. Dabei ist der Koeffizient ein Wert, der gleich 1,0 oder kleiner ist. Der Koeffizient kann beispielsweise auf einen kleineren Wert gesetzt werden, wenn die Anzahl der kontinuierlichen Extrapolationen steigt. Der Koeffizient kann auf einen kleineren Wert festgelegt werden, wenn sich die Position während der Positionsschätzung um einen festen Wert oder mehr von der eigenen Fahrzeugposition entfernt.
  • Als ein konkretes Beispiel für die Erzeugung von Informationen über das Ausmaß der Verlässlichkeit durch das erste Verfahren kann beispielsweise das in 7 gezeigte angeführt werden. Hier wird der Orientierungspunkt in 7 und dergleichen als LMK („Landmarkierung“) abgekürzt. In diesem Fall gibt der Basispunkt die Wahrscheinlichkeit bzw. Zuverlässigkeit des Orientierungspunkts an. Zudem werden in diesem Fall drei Koeffizienten, ein erster, ein zweiter und ein dritter Koeffizient, festgelegt. Der erste Koeffizient bezieht sich auf die Genauigkeit des Abstands. Der zweite Koeffizient bezieht sich auf den Faktor zur Verringerung der Erkennungsgenauigkeit, also auf den Faktor zur Verringerung der Sichtbarkeit. Der dritte Koeffizient bezieht sich auf andere Genauigkeiten. Als andere Genauigkeiten können hier die Schätzgenauigkeit hinsichtlich der Straßensteigung, die SFM-Genauigkeit, die GNSS-Genauigkeit und dergleichen angegeben werden. In dem in 7 gezeigten spezifischen Beispiel des ersten Verfahrens wird der Grad der Verlässlichkeit berechnet, indem der Basispunkt mit dem ersten Koeffizienten, dem zweiten Koeffizienten und dem dritten Koeffizienten multipliziert wird.
  • [2] Zweites Verfahren
  • In einem zweiten Verfahren bestimmt die Einheit 38 zum Zuordnen der Verlässlichkeit das Ausmaß der Verlässlichkeit durch Berechnen von zwei oder mehr Basispunkten aus den Basisdaten für das Ausmaß der Verlässlichkeit und durch Addition der zwei oder mehr Basispunkte. In diesem Fall können die Basispunkte derart sortiert werden, dass sie so gemittelt oder gewichtet werden, dass eine Summe aller Basispunkte „100“ ist.
  • Als ein konkretes Beispiel für die Erzeugung von Informationen über das Ausmaß der Verlässlichkeit durch das zweite Verfahren kann beispielsweise das in 8 gezeigte angeführt werden. In diesem Fall werden vier Basispunkte, ein erster Basispunkt, ein zweiter Basispunkt, ein dritter Basispunkt und ein vierter Basispunkt, festgelegt. Der erste Basispunkt gibt die Wahrscheinlichkeit des Orientierungspunkts an. Der zweite Basispunkt bezieht sich auf die Abstandsgenauigkeit. Der dritte Basispunkt bezieht sich auf den Faktor zur Verringerung der Erkennungsgenauigkeit. Der vierte Basispunkt bezieht sich auf andere Genauigkeiten.
  • In diesem Fall werden die Basispunkte so sortiert, dass jeder gewichtet ist. Genauer gesagt wird der erste Basispunkt auf eine von 60 Stufen festgelegt, die durch numerische Werte von „1“ bis „60“ angegeben werden. Der zweite Basispunkt wird auf eine von 20 Stufen festgelegt, die durch numerische Werte von „1“ bis „20“ angegeben werden. Der dritte Basispunkt und der vierte Basispunkt werden auf je eine von 10 Stufen festgelegt, die durch Zahlenwerte von „1“ bis „10“ angegeben werden. In dem in 8 gezeigten spezifischen Beispiel des zweiten Verfahrens wird der Grad der Verlässlichkeit berechnet, indem der erste Basispunkt, der zweite Basispunkt, der dritte Basispunkt und der vierte Basispunkt addiert werden.
  • [3] Drittes Verfahren
  • In einem dritten Verfahren ermittelt die Einheit 38 zum Zuordnen der Verlässlichkeit den Grad der Verlässichkeit, indem sie zwei oder mehr Basispunkte aus den Basisdaten für die Stufen der Verlässlichkeit berechnet und jeden der zwei oder mehr Basispunkte bewertet. In diesem Fall werden die Basispunkte jeweils auf eine von 100 Stufen gesetzt, die durch numerische Werte von „1“ bis „100“ angegeben werden. Als ein konkretes Beispiel für die Erzeugung von Informationen über die Verlässlichkeit durch das dritte Verfahren kann beispielsweise das in 9 gezeigte Beispiel angeführt werden. In diesem Fall werden vier Basispunkte, ein erster Basispunkt, ein zweiter Basispunkt, ein dritter Basispunkt und ein vierter Basispunkt, in ähnlicher Weise wie beim zweiten Verfahren festgelegt. In dem in 9 gezeigten konkreten Beispiel des dritten Verfahrens wird der Grad der Verlässlichkeit berechnet, indem der erste Basispunkt, der zweite Basispunkt, der dritte Basispunkt und der vierte Basispunkt einzeln bewertet werden.
  • Gemäß der vorstehend erläuterten vorliegenden Ausführungsform umfasst die Landkartenerzeugungseinheit 36 in der fahrzeuginternen Vorrichtung 32 die Karteninformationserzeugungseinheit 37, die die Karteninformationen in ähnlicher Weise wie die Einheit 16 zur Landkartenerzeugung gemäß der ersten Ausführungsform erzeugt, und die Einheit 38 zum Zuordnen der Verlässlichkeit, die die Informationen über das Ausmaß der Verlässlichkeit, d.h. die Informationen bezüglich des Ausmaßes der Verlässlichkeit der Daten, die dem vom Bildsensor 3 erfassten Bild entsprechen, den Daten Di zuordnet, also zu den Messdaten, die auf den Server 2 hochgeladen werden. Darüber hinaus erzeugt gemäß der vorliegenden Ausführungsform die Integrationseinheit 11 im Server 2 eine Landkarte, indem sie die Datenstücke Di integriert und dabei auch die den Daten Di zugeordneten Informationen über das Ausmaß der Verlässlichkeit berücksichtigt. Dadurch kann ein hervorragender Effekt zur weiteren Verbesserung der Genauigkeit der Kartenerzeugung im Server 2 erreicht werden.
  • (Andere Ausführungsformen)
  • Die vorliegende Offenbarung ist nicht auf die vorstehend erläuterten und in den Figuren dargestellten Ausführungsformen beschränkt. Änderungen, Kombinationen und Erweiterungen können willkürlich vorgenommen werden, ohne vom Geist der Erfindung abzuweichen. Numerische Werte und dergleichen, die passend zu den vorstehend erläuterten Ausführungsformen angegeben sind, sind Beispiele. Die vorliegende Offenbarung ist nicht darauf beschränkt.
  • In den Kartensystemen 1 und 31 können die jeweiligen Funktionsblöcke aufgeteilt sein. Beispielsweise kann ein Teil der Funktionsblöcke, die in der Steuervorrichtung 10 auf der Seite des Servers 2 vorgesehen sind, also die Steuervorrichtungen 8 und 33, auf der Seite der fahrzeuginterne Vorrichtungen 9 und 32, also fahrzeugseitig vorgesehen sein. Der Aufbau kann so beschaffen sein, dass die gemäß den vorstehend erläuterten Ausführungsformen beschriebenen Abläufe von den Steuervorrichtungen durchgeführt werden, die verschiedene Datenstücke durch Kommunikation übertragen und empfangen. Als ein spezifisches Beispiel für einen solchen Aufbau kann die folgende Konfiguration angegeben werden.
  • Das heißt, zusätzlich zu den Daten Dj, die die integrierte Karte anzeigen, ergänzt der Server 2 fehlende Attribute der Messdaten, wenn z.B. wenige Daten vorliegen, die in der Nacht aufgenommene Bilddaten umfassen, wenn wenige Daten vorliegen, bei denen die Montageposition des Bildsensors 3 eine niedrige bzw. tiefe Position ist, oder dergleichen. Die fahrzeuginternen Vorrichtungen 9 und 32 ermitteln, ob das eigene Fahrzeug zu den Attributen passt und laden die Daten Di nur dann hoch, wenn die Attribute passen. Folglich werden nur die erforderlichen Messdaten effizient vom Server 2 gesammelt, während eine kommunizierte Datenmenge verringert wird.
  • Darüber hinaus kann gemäß der zweiten Ausführungsform die Einheit 38 zum Zuordnen der Verlässlichkeit, die in der Steuervorrichtung 33 der fahrzeuginternen Vorrichtung 32 vorgesehen ist, in der Steuervorrichtung 10 des Servers 2 vorgesehen sein. In diesem Fall kann die fahrzeuginterne Vorrichtung 32 so aufgebaut sein, dass sie die Basisdaten des Ausmaßes der Verlässlichkeit an den Server 2 überträgt. Außerdem erzeugt in diesem Fall die im Server 2 vorgesehene Einheit 38 zum Zuordnen der Verlässlichkeit die Informationen über das Ausmaß der Verlässlichkeit basierend auf den Basisdaten für das Ausmaß der Verlässlichkeit, die von der fahrzeuginternen Vorrichtung 32 übertragen werden, und ordnet die Informationen über das Ausmaß der Verlässlichkeit den Daten Di zu, die von der fahrzeuginternen Vorrichtung 32 hochgeladen werden.
  • In der fahrzeuginternen Vorrichtung 32 gemäß der zweiten Ausführungsform werden in Bezug auf die Daten, die zum vom Bildsensor 3 erfassten Bild gehören, grundsätzlich keine Informationen aus der Vergangenheit behalten. Darüber hinaus werden in der fahrzeuginternen Vorrichtung 32 in Bezug auf einen vorab festgelegten Orientierungspunkt Daten hochgeladen, unmittelbar bevor der Orientierungspunkt auf dem vom Bildsensor 3 aufgenommenen Bild verdeckt wird. Daher kann zu dem Zeitpunkt, zu dem die Daten Di auf den Server 2 hochgeladen werden, nur eine Auswertung auf der Basis der Daten zur Verlässlichkeit des Frames zu dieser Zeit durchgeführt werden. Die Genauigkeit der Bewertung des Ausmaßes der Verlässlichkeit kann sinken.
  • Beispielsweise können sich Informationen, die sich auf die Attribute eines Orientierungspunkts beziehen, für jeden Frame ändern, wenn z. B. ein Orientierungspunkt in einem bestimmten Frame als Straßenschild erkannt wird und in einem anderen Frame als Straßenlampe. Daher werden in der fahrzeuginternen Vorrichtung 32 die Basisdaten des Ausmaßes der Verlässlichkeit in Zeitreihen gespeichert. Aus den Basisdaten des Ausmaßes der Verlässlichkeit können die Basisdaten des Ausmaßes der Verlässlichkeit, die eine hohe Häufigkeit aufweisen, genutzt und als ein Koeffizient festgelegt werden, oder ein Variationsgrad kann als ein Koeffizient festgelegt werden. Infolgedessen kann die Genauigkeit der Bewertung des Ausmaßes der Verlässlichkeit vorteilhaft beibehalten werden, und außerdem kann die Genauigkeit der Kartenerstellung im Server 2 vorteilhaft beibehalten werden.
  • In der fahrzeuginternen Vorrichtung 32 gemäß der zweiten Ausführungsform werden die Daten Di basierend auf den Informationen über das Ausmaß der Verlässlichkeit ausgewählt und hochgeladen. Das Ausmaß der Verlässlichkeit der Daten, das durch die Informationen über das Ausmaß der Verlässlichkeit angezeigt wird, muss jedoch nicht unbedingt genau sein. Daher ist es in der fahrzeuginternen Vorrichtung 32 vorzuziehen, dass eine Maßnahme so getroffen wird, dass so viele Daten Di wie möglich hochgeladen werden, während die Eliminierung der Daten Di minimiert wird. In diesem Fall kann die Integrationseinheit 11 des Servers 2 die wirklich benötigten Daten Di auswählen und integrieren.
  • Während die vorliegende Offenbarung anhand ihrer Ausführungsformen beschrieben wurde, ist die Offenbarung nicht auf diese Ausführungsformen und Aufbauten beschränkt. Die vorliegende Offenbarung soll verschiedene Modifikationsbeispiele und Modifikationen im Äquivalenzbereich abdecken. Darüber hinaus betreffen verschiedene Kombinationen und Aufbauten sowie andere Kombinationen und Aufbauten, die mehr, weniger oder nur ein einziges Element enthalten, ebenfalls den Geist und Umfang der vorliegenden Offenbarung.
  • Die in der vorliegenden Offenbarung erläuterte Steuereinheit und das zugehörige Verfahren können durch einen dedizierten Computer realisiert werden, der so beschaffen ist, dass er einen Prozessor und einen Speicher aufweist, wobei der Prozessor so programmiert ist, dass er eine oder mehrere Funktionen bereitstellt, die durch ein Computerprogramm realisiert werden. Alternativ können die Steuereinheit und das in der vorliegenden Offenbarung beschriebene Verfahren durch einen dedizierten Computer verwirklicht werden, der einen Prozessor umfasst, der durch eine einzelne oder mehrere dedizierte Hardware-Logikschaltungen aufgebaut ist. Weiter alternativ können die Steuereinheit und das in der vorliegenden Offenbarung beschriebene Verfahren auch durch einen oder mehrere dedizierte Computer realisiert werden, wobei der dedizierte Computer durch eine Kombination aus einem Prozessor, der so programmiert ist, dass er eine oder mehrere Funktionen bereitstellt, einem Speicher und einem Prozessor aufgebaut ist, der eine oder mehrere Hardware-Logikschaltungen aufweist. Darüber hinaus kann das Computerprogramm in einem nichtflüchtigen materiellen Aufzeichnungsmedium gespeichert sein, das von einem Computer als Anweisungen gelesen werden kann, die vom Computer ausführbar sind.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2019100268 [0001]
    • JP 2019100268 A [0001]
    • JP 2020089651 A [0001]
    • JP 2018510373 A [0004]

Claims (16)

  1. Kartensystem (1, 31), das eine fahrzeuginterne Vorrichtung (9, 32) umfasst, die in einem Fahrzeug angebracht ist, wobei das Kartensystem Folgendes umfasst: eine Abbildungsvorrichtung (3), die ein Bild der Umgebung des Fahrzeugs aufnimmt; einen Server (2), der eine Karte anhand von Daten erzeugt, die dem von der Abbildungsvorrichtung erfassten Bild entsprechen, das von der fahrzeuginternen Vorrichtung übertragen wird; und eine Integrationseinheit (11), die die einzelnen Daten, die von einer Vielzahl von fahrzeuginternen Vorrichtungen übertragen werden, basierend auf Verzerrungen in den einzelnen Daten gewichtet und eine Karte erzeugt, indem sie zumindest einen Teil der Vielzahl von einzelnen Daten basierend auf der Gewichtung integriert.
  2. Kartensystem nach Anspruch 1, wobei: die Integrationseinheit die einzelnen Daten so gewichtet, dass eine Prioritätsstufe der Daten, bei denen die Schätzgenauigkeit bei der Schätzung des eigenen Fahrzeugverhaltens, also des Verhaltens des eigenen Fahrzeugs, anhand des Bildes geschätzt wird, das zu den Daten passt, und unter Nutzung eines Structure-From-Motion-Verfahrens als relativ hoch bestimmt wird, höher ist als eine Prioritätsstufe der Daten, bei denen die Schätzgenauigkeit als relativ niedrig bestimmt wird.
  3. Kartensystem nach Anspruch 1 oder 2, wobei: die Integrationseinheit eine Verzerrung in den Daten bestimmt, die auf mindestens einer aus einer Montageposition, einer Montageanordnung und Spezifikationen der Abbildungsvorrichtung basiert.
  4. Kartensystem nach einem der Ansprüche 1 bis 3, wobei: die Integrationseinheit eine Verzerrung in den einzelnen Daten bestimmt, die auf einer Fahrgeschwindigkeit des Fahrzeugs basiert.
  5. Kartensystem nach Anspruch 4, wobei: die Integrationseinheit die einzelnen Daten so gewichtet, dass eine Prioritätsstufe der Daten, bei denen die Fahrgeschwindigkeit des Fahrzeugs relativ langsam ist, höher ist als eine Prioritätsstufe der Daten, bei denen die Fahrgeschwindigkeit des Fahrzeugs relativ schnell ist, wenn basierend auf der Fahrgeschwindigkeit des Fahrzeugs die Genauigkeit in Bezug auf ein Zielobjekt, das in der Nähe des Fahrzeugs positioniert ist, geringer ist als eine vorbestimmte Bestimmungsgenauigkeit.
  6. Kartensystem nach einem der Ansprüche 1 bis 5, wobei: die Integrationseinheit eine Verzerrung in den einzelnen Daten basierend auf einer Umgebung des Fahrzeugs bestimmt.
  7. Ein Kartenerzeugungsprogramm, das mindestens entweder eine fahrzeuginterne Vorrichtung (9, 32) oder einen Server (2) dazu veranlasst, einen Integrationsschritt durchzuführen, wobei die fahrzeuginterne Vorrichtung in einem Fahrzeug angebracht ist und eine Abbildungsvorrichtung (3) umfasst, die ein Bild einer Umgebung des Fahrzeugs aufnimmt, der Server eine Landkarte anhand von Daten erzeugt, die dem von der Abbildungsvorrichtung erfassten Bild entsprechen, das von der fahrzeuginternen Vorrichtung übertragen wird, der Schritt des Integrierens Folgendes umfasst: Gewichten der einzelnen Daten, die von einer Vielzahl von fahrzeuginternen Vorrichtungen übertragen werden, basierend auf einer Verzerrung in den einzelnen Daten; und Erzeugen einer Karte durch Integrieren mindestens eines Teils der Vielzahl von einzelnen Daten basierend auf der Gewichtung.
  8. Nichtflüchtiges computerlesbares Speichermedium, das ein Kartenerzeugungsprogramm nach Anspruch 7 speichert.
  9. Fahrzeuginterne Vorrichtung (9, 32), die an einem Fahrzeug angebracht ist, wobei die fahrzeuginterne Vorrichtung Folgendes umfasst: eine Abbildungsvorrichtung (3), die ein Bild eines Umgebungsbereichs des Fahrzeugs erfasst, wobei: die fahrzeuginterne Vorrichtung Daten, die dem von der Abbildungsvorrichtung erfassten Bild entsprechen, an einen Server (2) überträgt, wobei der Server eine Integrationseinheit (11) aufweist, die die einzelnen Daten, die von einer Vielzahl von fahrzeuginternen Vorrichtungen übertragen werden, basierend auf Verzerrungen in den einzelnen Daten gewichtet und eine Karte erzeugt, indem sie zumindest einen Teil der Vielzahl von einzelnen Daten basierend auf der Gewichtung integriert.
  10. Fahrzeuginterne Vorrichtung nach Anspruch 9, wobei: die Daten, die dem Bild entsprechen, Daten sind, die sich auf die Abbildungsbedingungen des Bildes durch die Abbildungsvorrichtung beziehen.
  11. Fahrzeuginterne Vorrichtung nach Anspruch 9 oder 10, weiter mit: einer Einheit (38) zum Zuordnen der Verlässlichkeit, die den Daten Informationen über das Ausmaß der Verlässlichkeit zuordnet, die sich auf einen Grad der Verlässlichkeit der Daten beziehen, die dem Bild entsprechen.
  12. Fahrzeuginterne Vorrichtung nach Anspruch 11, wobei: die Einheit zum Zuordnen der Verlässlichkeit das Ausmaß der Verlässlichkeit basierend auf der Schätzgenauigkeit bewertet, wenn das eigene Fahrzeugverhalten, also das Verhalten des Fahrzeugs, unter Nutzung des Bildes, das den Daten entspricht, und unter Nutzung eines Structure-From-Motion-Verfahrens eingeschätzt wird, und die Informationen über das Ausmaß der Verlässlichkeit basierend auf den entsprechenden Bewertungsergebnissen erzeugt.
  13. Fahrzeuginterne Vorrichtung nach Anspruch 11 oder 12, wobei: die Einheit zum Zuordnen der Verlässlichkeit das Ausmaß der Verlässlichkeit basierend auf der Schätzgenauigkeit bezüglich einer Straßensteigung bewertet und die Informationen über das Ausmaß der Verlässlichkeit basierend auf den entsprechenden Bewertungsergebnissen erzeugt.
  14. Fahrzeuginterne Vorrichtung nach einem der Ansprüche 11 bis 13, wobei: die Einheit zum Zuordnen der Verlässlichkeit das Ausmaß der Verlässlichkeit basierend auf der Schätzgenauigkeit bezüglich der Sichtbarkeit der Abbildungsvorrichtung auswertet und die Informationen über das Ausmaß der Verlässlichkeit basierend auf den entsprechenden Bewertungsergebnissen erzeugt.
  15. Fahrzeuginterne Vorrichtung nach einem der Ansprüche 11 bis 14, wobei: die Einheit zum Zuordnen der Verlässlichkeit das Ausmaß der Verlässlichkeit basierend auf Informationen über einen Orientierungspunkt in einem Bild auswertet, der basierend auf einem Bild erfasst wird, das den Daten entspricht, und die Informationen über das Ausmaß der Verlässlichkeit basierend auf entsprechenden Bewertungsergebnissen erzeugt.
  16. Server (2), der eine Landkarte unter Nutzung von Daten erzeugt, die einem Bild entsprechen, das von einer Abbildungsvorrichtung (3) erfasst wird, die in einer fahrzeuginternen Vorrichtung (9, 32) vorgesehen ist, die an einem Fahrzeug angebracht ist, wobei die Abbildungsvorrichtung ein Bild eines Umgebungsbereichs des Fahrzeugs erfasst, wobei die Daten von der fahrzeuginternen Vorrichtung (9, 32) übertragen werden, wobei der Server Folgendes umfasst: eine Integrationseinheit (11), die die einzelnen Daten, die von einer Vielzahl von fahrzeuginternen Vorrichtungen übertragen werden, basierend auf Verzerrungen in den einzelnen Daten gewichtet und eine Karte durch Integration mindestens eines Teils der Vielzahl von einzelnen Daten basierend auf der Gewichtung erzeugt.
DE112020002630.2T 2019-05-29 2020-05-28 Kartensystem, kartenerzeugendes programm, speichermedium, fahrzeuginterne vorrichtung und server Pending DE112020002630T5 (de)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2019100268 2019-05-29
JP2019-100268 2019-05-29
JP2020089651A JP7215460B2 (ja) 2019-05-29 2020-05-22 地図システム、地図生成プログラム、記憶媒体、車両用装置およびサーバ
JP2020-089651 2020-05-22
PCT/JP2020/021152 WO2020241766A1 (ja) 2019-05-29 2020-05-28 地図システム、地図生成プログラム、記憶媒体、車両用装置およびサーバ

Publications (1)

Publication Number Publication Date
DE112020002630T5 true DE112020002630T5 (de) 2022-03-10

Family

ID=73552247

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112020002630.2T Pending DE112020002630T5 (de) 2019-05-29 2020-05-28 Kartensystem, kartenerzeugendes programm, speichermedium, fahrzeuginterne vorrichtung und server

Country Status (4)

Country Link
US (1) US20220082407A1 (de)
CN (1) CN113939826A (de)
DE (1) DE112020002630T5 (de)
WO (1) WO2020241766A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2023013342A1 (de) * 2021-08-02 2023-02-09

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018510373A (ja) 2015-02-10 2018-04-12 モービルアイ ビジョン テクノロジーズ リミテッド 自律車両ナビゲーションのための疎な地図
JP2019100268A (ja) 2017-12-05 2019-06-24 日立オートモティブシステムズ株式会社 燃料供給ポンプ
JP2020089651A (ja) 2018-12-07 2020-06-11 株式会社タカゾノ 薬剤供給装置及び薬剤包装装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4862930B2 (ja) * 2009-09-04 2012-01-25 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
JP2011191239A (ja) * 2010-03-16 2011-09-29 Mazda Motor Corp 移動体位置検出装置
JP2016156973A (ja) * 2015-02-25 2016-09-01 パイオニア株式会社 地図データ記憶装置、制御方法、プログラム及び記憶媒体
JP2018025490A (ja) * 2016-08-10 2018-02-15 株式会社デンソー 位置推定装置
JP6617735B2 (ja) * 2017-02-22 2019-12-11 株式会社デンソー 車両用表示装置
KR102274125B1 (ko) * 2017-06-28 2021-07-06 현대자동차주식회사 친환경 자동차의 관성 주행 제어 방법
EP3645972A4 (de) * 2017-06-30 2021-01-13 SZ DJI Technology Co., Ltd. Kartenerzeugungssysteme und -verfahren
WO2020090251A1 (ja) * 2018-10-30 2020-05-07 日本電気株式会社 物体認識装置、物体認識方法および物体認識プログラム
US11670001B2 (en) * 2019-05-17 2023-06-06 Nvidia Corporation Object pose estimation

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018510373A (ja) 2015-02-10 2018-04-12 モービルアイ ビジョン テクノロジーズ リミテッド 自律車両ナビゲーションのための疎な地図
JP2019100268A (ja) 2017-12-05 2019-06-24 日立オートモティブシステムズ株式会社 燃料供給ポンプ
JP2020089651A (ja) 2018-12-07 2020-06-11 株式会社タカゾノ 薬剤供給装置及び薬剤包装装置

Also Published As

Publication number Publication date
CN113939826A (zh) 2022-01-14
US20220082407A1 (en) 2022-03-17
WO2020241766A1 (ja) 2020-12-03

Similar Documents

Publication Publication Date Title
DE102017107216B4 (de) Geschwindigkeitsbegrenzungsanzeigevorrichtung für ein fahrzeug
DE102016223638B4 (de) Fahrunterstützungsvorrichtung
EP2313741B1 (de) Verfahren zum aktualisieren einer geografischen datenbank für ein fahrzeugnavigationssystem
DE102005004112B4 (de) Fahrzeugnavigationssystem
DE102010005293B4 (de) System und Verfahren zur Spurpfadschätzung unter Verwendung einer Sensorvereinigung
EP1519152B1 (de) Vorrichtung und Verfahren zur Darstellung von Fahrhinweisen
DE112019006171T5 (de) Anzeigesteuervorrichtung, Anzeigesteuerprogramm und nicht-transitorisches greifbares computerlesbares Speichermedium
DE112014006929T5 (de) Autonomes Fahrmanagementsystem, Server und autonomes Fahrmanagementverfahren
DE112015006622T5 (de) Fahrspurbestimmungsvorrichtung und Fahrspurbestimmungsverfahren
DE102017112024A1 (de) Übertragungsnotwendigkeits-Bestimmungsvorrichtung und Routenplanungssystem
DE102012208974A1 (de) System und Verfahren zum sensorbasierten Aufbauen eines Umgebungsmodells
DE112015001128T5 (de) Anzeigeobjektinformationsanzeigevorrichtung
DE102018005869A1 (de) System zur Erstellung eines Umgebungsmodells eines Fahrzeugs
DE102017203662B4 (de) Verfahren zum Ermitteln von Umgebungsdaten, die eine vorbestimmte Messgröße in einer Umgebung eines Kraftfahrzeugs beschreiben, sowie Steuervorrichtung für ein Kraftfahrzeug und Kraftfahrzeug
DE102010029483A1 (de) Verfahren und Vorrichtung zur Kommunikation
DE102021103149A1 (de) Verfahren und vorrichtung zur bestimmung der optimalen kreuzungsspur in einem unterstützten fahrsystem
DE112021003371T5 (de) Fahrzeugpositionsschätzvorrichtung und Fahrpositionsschätzverfahren
DE102020210515A1 (de) Verfahren zur Überprüfung von detektierten Veränderungen für ein Umfeldmodell einer digitalen Umgebungskarte
DE102017216775A1 (de) Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Steuerung einer Anzeige einer Augmented-Reality-Head-Up-Display-Vorrichtung für ein Kraftfahrzeug
DE102010048263A1 (de) Verfahren und Vorrichtung zum Unterstützen eines Fahrers eines Fahrzeugs
DE112020002630T5 (de) Kartensystem, kartenerzeugendes programm, speichermedium, fahrzeuginterne vorrichtung und server
DE112021003340T5 (de) Hindernisinformationsverwaltungsvorrichtung,hindernisinformationsverwaltungsverfahren und vorrichtung für ein fahrzeug
WO2018210581A1 (de) Verfahren zum erzeugen einer überholwahrscheinlichkeitssammlung, verfahren zum betreiben einer steuereinrichtung eines kraftfahrzeugs, überholwahrscheinlichkeitssammeleinrichtung und steuereinrichtung
DE112018001529T5 (de) Anzeigesteuerungsvorrichtung für ein fahrzeug und anzeigeeinheit für ein fahrzeug
DE102019216747A1 (de) Verfahren zum Bereitstellen eines Überlagerungskartenabschnitts

Legal Events

Date Code Title Description
R012 Request for examination validly filed