DE102017125493A1 - Verkehrszeichenerkennung - Google Patents

Verkehrszeichenerkennung Download PDF

Info

Publication number
DE102017125493A1
DE102017125493A1 DE102017125493.5A DE102017125493A DE102017125493A1 DE 102017125493 A1 DE102017125493 A1 DE 102017125493A1 DE 102017125493 A DE102017125493 A DE 102017125493A DE 102017125493 A1 DE102017125493 A1 DE 102017125493A1
Authority
DE
Germany
Prior art keywords
traffic sign
vehicle
location
video images
traffic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102017125493.5A
Other languages
English (en)
Inventor
Collin Kappauf
Andrew Richardson
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE102017125493A1 publication Critical patent/DE102017125493A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/362Destination input or retrieval received from an external device or application, e.g. PDA, mobile phone or calendar application
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/3811Point data, e.g. Point of Interest [POI]
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3837Data obtained from a single source
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3848Data obtained from both position sensors and additional sensors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0234Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
    • G05D1/0236Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09623Systems involving the acquisition of information from passive traffic signs by means mounted on the vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3885Transmission of map data to client devices; Reception of map data by client devices
    • G01C21/3896Transmission of map data from central databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Navigation (AREA)

Abstract

Fahrzeuge können mit Rechenvorrichtungen, Netzwerken, Sensoren und Steuerungen ausgestattet sein, um eine digitale Karte der umgebenden realen Welt zu bestimmen, zu ändern und/oder zu verbessern. In einem Fahrzeug enthaltene Rechenvorrichtungen können die Standorte von Verkehrszeichen in LIDAR-Daten bestimmen. Die Rechenvorrichtungen können Verkehrszeichen in einem oder mehreren Videobildern basierend auf den Standorten der Verkehrszeichen identifizieren und die Verkehrszeichen in eine digitale Karte basierend auf der Identität des Verkehrszeichens und dem Standort des Verkehrszeichens einschließen.

Description

  • ALLGEMEINER STAND DER TECHNIK
  • Digitale Karten werden nun verbreitet genutzt für vielfältige Zwecke, einschließlich Überwachung von Verkehrs- und Straßenverhältnissen, Routenplanung, Ortung von Fixpunkten wie z. B. Einzelhandelsunternehmen, Parks, usw., und/oder Navigation eines autonomen oder halbautonomen Fahrzeugs entlang einer Route entsprechend Informationen auf der digitalen Karte. Verkehrszeichen können nützliche Informationen über eine geplante oder potenzielle Fahrtstrecke vermitteln, z. B. Geschwindigkeitsbeschränkungen, Stoppzeichen, Spurwechsel, usw. Allerdings sind digitale Karten häufig veraltet oder ungenau, z. B. weil Schilder nicht richtig auf den digitalen Karten einbezogen wurden, seit einer letzten Aktualisierung Schilder aufgestellt oder entfernt wurden usw., oder die potenzielle Fahrtstrecke noch nicht erfasst wurde, um eine digitale Karte zu ergeben.
  • Figurenliste
    • 1 ist ein Blockdiagramm eines Beispielfahrzeugs.
    • 2 ist ein Diagramm eines beispielhaften Videobildes einer Straße mit Verkehrszeichen;
    • 3 ist ein Diagramm von beispielhaften LIDAR-Daten mit Verkehrszeichen;
    • 4 ist ein Diagramm von weiteren beispielhaften LIDAR-Daten mit Verkehrszeichen;
    • 5 ist ein Diagramm von noch weiteren beispielhaften LIDAR-Daten mit Verkehrszeichen;
    • 6 ist ein Diagramm eines weiteren beispielhaften Videobildes einer Straße mit Verkehrszeichen;
    • 7 ist ein Diagramm von weiteren beispielhaften Videobildern von Verkehrszeichen;
    • 8 ist ein Ablaufdiagramm eines Prozesses zum Führen eines Fahrzeugs basierend auf Verkehrszeichen;
    • 9 ist ein Ablaufdiagramm eines weiteren Prozesses zum Führen eines Fahrzeugs basierend auf Verkehrszeichen.
  • DETAILLIERTE BESCHREIBUNG
  • Fahrzeuge können mit Rechenvorrichtungen, Netzwerken, Sensoren und Steuerungen ausgestattet sein, um eine digitale Karte der umgebenden realen Welt zu bestimmen, zu ändern und/oder zu verbessern. Eine derartige Karte kann für vielfältige Zwecke genutzt werden, z. B. um mögliche Routen zu bestimmen, um ein autonomes Fahrzeug zu führen und/oder um einen Insassen beim Führen eines Fahrzeugs zu unterstützen. Bordsensoren können LIDAR-Sensoren beinhalten, die Daten bereitstellen können, um die Identität und den Standort von Verkehrszeichen zu bestimmen. Die Identität und der Standort von Verkehrszeichen können in der digitalen Karte enthalten sein. Die digitale Karte kann auf einen Servercomputer hochgeladen werden, um Zugriff und Verbreitung zu den vorstehenden oder anderen Zwecken zu ermöglichen.
  • Fahrzeuge können dazu ausgerüstet sein, sowohl in autonomer als auch in insassengeführter Betriebsart zu funktionieren. Unter halb- oder vollautonomer Betriebsart verstehen wir eine Betriebsart, wobei ein Fahrzeug durch eine Rechenvorrichtung als Bestandteil eines Bordinformationssystems, das Sensoren und Steuerungen aufweist, geführt werden kann. Das Fahrzeug kann mit Insassen besetzt sein oder nicht, aber das Fahrzeug kann in jedem Fall ohne Unterstützung eines Insassen geführt werden. Zu Zwecken dieser Offenbarung ist eine autonome Betriebsart definiert als eine, bei der jedes der Elemente Fahrzeugantrieb (z. B. über einen Antriebsstrang einschließlich eines Verbrennungsmotors und/oder Elektromotors), Bremsen und Lenken von einem oder mehreren Bordcomputern gesteuert werden kann; in einer halbautonomen Betriebsart steuert(steuern) der(die) Bordcomputer eines oder zwei der Elemente Fahrzeugantrieb, Bremsen und Lenken.
  • Fahrzeuge können mit Rechenvorrichtungen, Netzwerken, Sensoren und Steuerungen ausgestattet sein, um das Fahrzeug zu führen und um Karten der umgebenden realen Welt, einschließlich Merkmalen wie z. B. Straßen, zu bestimmen. Fahrzeuge können geführt und Karten können bestimmt werden basierend auf der Ortung und Identifizierung von Verkehrszeichen in der umgebenden realen Welt. Unter Führen verstehen wir das Lenken der Bewegungen eines Fahrzeugs, um das Fahrzeug zu einem Bestimmungsort zu bewegen.
  • 1 ist ein Diagramm eines Bordinformationssystems 100, das ein Fahrzeug 110 beinhaltet, das in der autonomen („autonom“ allein bedeutet in dieser Offenbarung „vollautonom“) und insassengeführten (ebenfalls bezeichnet als nichtautonome) Betriebsart nach den offenbarten Implementierungen betrieben werden kann. Das Fahrzeug 110 beinhaltet ebenfalls eine oder mehrere Rechenvorrichtungen 115 zur Durchführung von Berechnungen zum Führen des Fahrzeugs 110 während des autonomen Betriebs. Die Rechenvorrichtungen 115 können Informationen über den Betrieb des Fahrzeugs von den Sensoren 116 empfangen.
  • Die Rechenvorrichtung 115 beinhaltet einen Prozessor und einen Speicher der bekannten Art. Weiterhin beinhaltet der Speicher eine oder mehrere Formen von computerlesbaren Medien und speichert vom Prozessor ausführbare Befehle zum Ausführen verschiedener Vorgänge, einschließlich wie in diesem Schriftstück offenbart. So kann z. B. die Rechenvorrichtung 115 Programmieren beinhalten, um eine oder mehrere von Fahrzeug-Bremsen, -Antrieb (z. B. Steuerungen der Beschleunigung im Fahrzeug 110 durch Regeln von einem oder mehreren von einem Verbrennungsmotor, Elektromotor, Hybridmotor usw.), -Lenkung, -Klimaregelung, - Innen- und/oder Außenbeleuchtung usw. zu betätigen, sowie zu bestimmen, ob und wann die Rechenvorrichtung 115 im Gegensatz zu einem menschlichen Bediener diese Vorgänge steuern soll.
  • Die Rechenvorrichtung 115 kann mehr als eine Rechenvorrichtung, z. B. Steuerungen oder dergleichen, die im Fahrzeug 110 zum Überwachen und/oder Regeln von verschiedenen Fahrzeugkomponenten enthalten sind, z. B. einem Antriebsstrangregler 112, einem Bremsregler 113, einem Lenkregler 114, usw., enthalten oder z. B. über einen Bordkommunikationsbus, wie nachstehend beschrieben, damit kommunikativ gekoppelt sein. Die Rechenvorrichtung 115 ist allgemein für Kommunikation in einem Bordkommunikationsnetzwerk angeordnet, wie z. B. einem Bus in dem Fahrzeug 110 wie z. B. einem Controller Area Network (CAN) oder dergleichen; das Netz des Fahrzeugs 110 kann drahtgebundenen oder drahtlosen Kommunikationsmechanismus der bekannten Art, z. B. Ethernet oder andere Kommunikationsprotokolle, beinhalten.
  • Über das Bordnetz kann die Rechenvorrichtung 115 Nachrichten an verschiedene Vorrichtungen im Fahrzeug senden und/oder Nachrichten von den verschiedenen Vorrichtungen empfangen, z. B. Steuerungen, Stellantrieben, Sensoren, usw., einschließlich der Sensoren 116. Alternativ oder zusätzlich in Fällen, in denen die Rechenvorrichtung 115 tatsächlich mehrere Vorrichtungen umfasst, kann das Bordkommunikationsnetzwerk für Kommunikation zwischen Vorrichtungen eingesetzt werden, die in dieser Offenbarung als die Rechenvorrichtung 115 dargestellt werden. Weiterhin, wie nachstehend aufgeführt, können verschiedene Steuerungen oder Sensorelemente Daten an die Rechenvorrichtung 115 über das Bordkommunikationsnetzwerk bereitstellen.
  • Darüber hinaus kann die Rechenvorrichtung 115 dazu konfiguriert sein, durch eine Fahrzeug-/Infrastruktur- (V/I) -Schnittstelle 111 mit einem Remote-Servercomputer 120, z. B. einem Cloudserver, über ein Netzwerk 130 zu kommunizieren, das, wie nachstehend beschrieben, sich verschiedener drahtgebundener und/oder drahtloser Netzwerktechnologien bedienen kann, z. B. Mobilfunk-, BLUETOOTH®- und drahtgebundener und/oder drahtloser Paketnetzwerke. Die Rechenvorrichtung 115 beinhaltet ebenfalls nichtflüchtigen Speicher der bekannten Art. Die Rechenvorrichtung kann Informationen protokollieren, indem sie die Informationen für späteren Abruf und Übertragung über das Bordkommunikationsnetzwerk und die V/I-Schnittstelle 111 an einen Servercomputer 120 oder ein Nutzer-Mobilgerät 160 im nichtflüchtigen Speicher speichert.
  • Wie bereits aufgeführt, ist im Allgemeinen in den im Speicher gespeicherten und durch den Prozessor der Rechenvorrichtung 115 ausgeführten Anweisungen das Programmieren für die Betätigung von einer oder mehreren Komponenten des Fahrzeugs 110, z. B. Bremsen, Lenken, Antrieb, usw., ohne Eingreifen eines menschlichen Bedieners enthalten. Durch Nutzung der in der Rechenvorrichtung 115 empfangenen Daten, z. B. der Sensordaten von den Sensoren 116, dem Servercomputer 120, usw., kann die Rechenvorrichtung 115 verschiedene Festlegungen treffen und/oder verschiedene Komponenten und/oder Vorgänge des Fahrzeugs 110 steuern, ohne dass ein Fahrer das Fahrzeug 110 bedient. Beispielsweise kann die Rechenvorrichtung 115 Programmieren beinhalten, um das Betriebsverhalten des Fahrzeugs 110 zu regulieren, wie z. B. Geschwindigkeit, Beschleunigung, Verzögerung, Lenken, usw., sowie taktisches Verhalten wie z. B. einen Abstand zwischen Fahrzeugen und/oder Zeitraum zwischen den Fahrzeugen, minimaler Abstand zwischen den Fahrzeugen beim Spurwechsel, minimales Linksabbiegen über die Gegenfahrbahn, Fahrtzeit bis zum Eintreffen an einem bestimmten Standort und minimale Fahrtzeit an einer Kreuzung (ohne Verkehrssignal) zum Überqueren der Kreuzung.
  • Der Begriff Steuerungen, wie er in diesem Schriftstück verwendet wird, beinhaltet Rechenvorrichtungen, die typischerweise dazu programmiert sind, ein spezifisches Fahrzeug-Teilsystem zu steuern. Beispiele hierfür umfassen einen Antriebsstrangregler 112, einen Bremsregler 113 und einen Lenkregler 114. Eine Steuerung kann eine elektronische Steuereinheit (ECU) der bekannten Art sein, die möglicherweise zusätzliches Programmieren beinhaltet, wie in diesem Schriftstück beschrieben. Die Steuerungen können kommunikativ mit der Rechenvorrichtung 115 verbunden sein und von ihr Anweisungen empfangen, um das Teilsystem entsprechend den Anweisungen zu betätigen. Beispielsweise kann der Bremsregler 113 Anweisungen von der Rechenvorrichtung 115 empfangen, um die Bremsen des Fahrzeugs 110 zu betätigen.
  • Der eine oder die mehreren Steuerungen 112, 113, 114 für das Fahrzeug 110 können bekannte elektronische Steuereinheiten (ECU) oder dergleichen beinhalten, einschließlich, im Sinne nicht einschränkender Beispiele, einen oder mehrere Antriebsstrangregler 112, einen oder mehrere Bremsregler 113 und einen oder mehrere Lenkregler 114. Jeder der Steuerungen 112, 113, 114 kann entsprechende Prozessoren und Speicher und einen oder mehrere Stellantriebe beinhalten. Die Steuerungen 112, 113, 114 können programmiert und an einen Kommunikationsbus des Fahrzeugs 110 angeschlossen werden, wie z. B. einen Controller Area Network (CAN) -Bus oder einen Local Interconnect Network (LIN) -Bus, um Anweisungen vom Computer 115 zu empfangen und Stellantriebe basierend auf den Anweisungen zu steuern.
  • Die Sensoren 116 können eine Vielzahl von Vorrichtungen beinhalten, die dafür bekannt sind, Daten über den Bordkommunikationsbus bereitzustellen. Beispielsweise kann ein an der vorderen Stoßstange (nicht abgebildet) des Fahrzeugs 110 befestigter Radar einen Abstand vom Fahrzeug 110 zu einem nächsten vor dem Fahrzeug 110 befindlichen Fahrzeug bereitstellen, oder ein im Fahrzeug 110 angeordneter Sensor eines globalen Positionierungssystems (GPS) kann geografische Koordinaten des Fahrzeugs 110 bereitstellen. Der vom Radar bereitgestellte Abstand oder die vom GPS-Sensor bereitgestellten geografischen Koordinaten können von der Rechenvorrichtung 115 dazu verwendet werden, das Fahrzeug 110 autonom oder halb autonom zu betreiben.
  • Das Fahrzeug 110 ist im Allgemeinen ein autonomes Landfahrzeug 110, das drei oder mehr Räder aufweist, z. B. ein Personenwagen, leichter Lastkraftwagen usw. Das Fahrzeug 110 beinhaltet einen oder mehrere Sensoren 116, die V/I-Schnittstelle 111, die Rechenvorrichtung 115 und einen oder mehrere Steuerungen 112, 113, 114.
  • Die Sensoren 116 können dazu programmiert sein, Daten bezogen auf das Fahrzeug 110 und die Umgebung zu sammeln, in der das Fahrzeug 110 in Betrieb ist. Im Sinne eines Beispiels und nicht einer Einschränkung können die Sensoren 116 beinhalten: z. B. Höhenmesser, Kameras, LiDAR, Radar, Ultraschallsensoren, Infrarotsensoren, Drucksensoren, Beschleunigungsmesser, Gyroskope, Temperatursensoren, Drucksensoren, Hall-Sensoren, optische Sensoren, Spannungssensoren, Stromsensoren, mechanische Sensoren wie z. B. Schalter usw. Die Sensoren 116 können dazu eingesetzt werden, die Umgebung zu erfassen, in der das Fahrzeug 110 betrieben wird, wie z. B. Witterungsbedingungen, die Neigung einer Straße, den Standort einer Straße oder den Standort von benachbarten Fahrzeugen 110. Die Sensoren 116 können weiterhin dazu verwendet werden, dynamische Daten des Fahrzeugs 110 bezüglich Vorgängen des Fahrzeugs 110 zu sammeln, wie z. B. Geschwindigkeit, Lenkwinkel, Motordrehzahl, Bremsdruck, Öldruck, das auf die Steuerungen 112, 113, 114 im Fahrzeug 110 angelegte Leistungsniveau, die Konnektivität zwischen Komponenten und den einwandfreien Zustand der elektrischen und logischen Komponenten des Fahrzeugs 110.
  • 2 ist ein Diagramm eines Videobildes 200, das durch eine z. B. in den Sensoren 116 enthaltene Videokamera aufgenommen wurde. Das Videobild 200 wurde von einer Videokamera aufgenommen, um eine Szene in der realen Welt vorwärts und in der Bewegungsrichtung des Fahrzeugs 110 zu beinhalten, und enthält ein Bild einer Straße 202 und Bilder eines Geschwindigkeitsbeschränkungs-Verkehrszeichens 204, eines Einfahrt-verboten-Verkehrszeichens 206, eines ersten Pfeil-nach-links-Verkehrszeichens 208 und eines zweiten Pfeil-nach-links-Verkehrszeichens 210, die in diesem Schriftstück als Verkehrszeichen 204, 206, 208, 210 bezeichnet werden.
  • 3 ist ein Diagramm von LIDAR-Daten 300, die durch ein LIDAR-System aufgenommen wurden, das z. B. in den Sensoren 116 enthalten ist. LIDAR ist eine Kontraktion von LIght raDAR (LIcht RaDAR) und beinhaltet das Bestimmen von 3D-Reichweiten oder -Abständen zu Punkten in einer Szene durch Senden und Empfangen z. B. von abgetasteten Lichtimpulsen, die von einem Laser stammen können, und Messen der Flugzeit. Das LIDAR-System kann LIDAR-Daten 300 von einer Szene in der realen Welt in allen Richtungen um das Fahrzeug 110 aufnehmen, einschließlich Richtungen, die dem Videobild 200 entsprechen.
  • Die von der Szene in der realen Welt reflektierten Lichtimpulse erzeugen Rückläufer 302 entlang Abtastlinien, die z. B. durch einen in einem LIDAR-System enthaltenen Laser bestimmt werden können. Die Rückläufer beinhalten die Intensität des Signals und den 3D-Abstand oder die -Reichweite zu den Punkten in der Szene, die vom Laser beim Abtasten der Szene beleuchtet werden. Die LIDAR-Daten 300 können Samples enthalten, die entlang paralleler Abtastlinien in verschiedenen Winkeln aufgenommen wurden, wie in den LIDAR-Daten 300 dargestellt.
  • Die LIDAR-Daten 300 enthalten das Intensitätssignal und die 3D-Reichweiten oder -Abstände in Verbindung mit den Rückläufern 302. Die 3D-Reichweiten oder -Abstände in Verbindung mit den Rückläufern 302 sind nicht dargestellt. Das Geschwindigkeitsbeschränkungs-Verkehrszeichen 204, das Einfahrt-verboten-Verkehrszeichen 206, das erste Pfeil-nach-links-Verkehrszeichen 208 und das zweite Pfeil-nach-links-Verkehrszeichen 210 bilden Flächen mit Rückläufern von hoher Intensität 304, 306, 308, 310. Verkehrszeichen können Rückläufer von hoher Intensität in den LIDAR-Daten 300 erzeugen, da Verkehrszeichen mit reflektierender Farbe beschichtet sein können, die mikroskopische Lentikularelemente enthalten, die beispielsweise das Verkehrszeichen unabhängig vom Winkel, in dem es beleuchtet und gesehen wird, stark reflektierend machen.
  • 4 ist ein Diagramm der LIDAR-Daten 400, die gefiltert wurden, um alle außer Rückläufern von hoher Intensität 402, 404, 406, 408, 410 in den LIDAR-Daten 400 durch Ausfiltern von Rückläufern von niedriger Intensität zu entfernen. Das Ausfiltern von Rückläufern von niedriger Intensität kann basierend auf einem vorgegebenen Schwellenwert erfolgen oder kann mittels bekannter Techniken für maschinelles Sehen zum Ausfiltern von Rückläufern von niedriger Intensität beispielsweise durch Kombinieren von Schwellenwerten und Werten umgebender Rückläufer erfolgen. Ein Beispiel für Techniken für maschinelles Sehen zum Ausfiltern von Rückläufern von niedriger Intensität kann beispielsweise Schwellenwertbildung mit den LIDAR-Daten 300, gefolgt von morphologischer Verarbeitung umfassen, um isolierte Rückläufer von hoher Intensität zu entfernen.
  • 5 ist ein Diagramm der LIDAR-Daten 500, die mit Clusteranalyse verarbeitet wurden. Clusteranalyse ist eine Technik zum Bestimmen von verbundenen Regionen oder Gruppen in einem räumlichen Bereich durch Messen von statistischen Verteilungen basierend auf Nähe und Ähnlichkeit von Datenpunkten. Zur Durchführung der Clusteranalyse an den LIDAR-Daten 500 sind mehrere verschiedene Techniken bekannt, einschließlich beispielsweise konnektivitätsbasierte, flächenschwerpunktsbasierte, verteilungsbasierte und dichtebasierte Clusteranalyse.
  • Mit Clusteranalyse können ähnliche Datenpunkte in eine kleine Anzahl von basierend auf Nähekriterien miteinander verbundenen Gruppen gruppiert werden. Die Cluster 504, 506, 508, 510 können beispielsweise in den LIDAR-Daten 500 dadurch bestimmt werden, dass die Rückläufer von hoher Intensität 402, 404, 406, 408, 410 in Cluster basierend auf der Dichte der Rückläufer von hoher Intensität 402, 404, 406, 408, 410 nach vorgegebenen Parametern gruppiert werden, wobei die Cluster 504, 506, 508, 510 bestimmt werden.
  • Clusteranalyse kann mit Filtern zum Ausfiltern der Cluster 504, 506, 508, 510 kombiniert werden, die kleiner und größer als ein vorgegebener Größenbereich sind. Auf diese Weise können die Cluster 504, 506, 508, 510, die kleiner sind als eine vorgegebenen Größe, aus den LIDAR-Daten 500 ausgefiltert werden, da die Videodaten in Verbindung mit dem Cluster 504, 506, 508, 510 nach vorgegebenen Parametern zu klein sein können, um mit einem der Verkehrszeichen 204, 206, 208, 210 im Zusammenhang zu stehen.
  • In anderen Fällen können die Cluster 504, 506, 508, 510 groß genug sein, um den Verkehrszeichen 204, 206, 208, 210 zugeordnet zu werden, aber nicht groß genug, um Zeichenerkennung und Abgleichen von Schildern zu unterstützen, da bekannte Techniken zur Durchführung von Zeichenerkennung und Abgleichen von Schildern eine Mindestgröße der Merkmale erfordern können, um erfolgreich zu sein. In noch anderen Fällen können die Cluster 504, 506, 508, 51 groß genug sein, um in Verbindung mit einem der Verkehrszeichen 204, 206, 208, 210 zu stehen, aber die Lage, wie nachstehend definiert, in Verbindung mit den Clustern 504, 506, 508, 510 gibt an, dass Videobilder in Verbindung mit den Standorten der Schilder 604, 606, 608, 610 zu sehr verzerrt wären, um Zeichenerkennung und Abgleich von Schildern zu unterstützen.
  • Die Cluster 504, 506, 508, 510, die größer als die Verkehrszeichen 204, 206, 208, 210 sind, können nicht ausgefiltert werden, da sie Gruppen von Verkehrszeichen 204, 206, 208, 210 enthalten könnten. Obergrenzen für Größenfilter können vom Standort der Verkehrszeichen 204, 206, 208, 210 abhängig sein. Beispielsweise sind Verkehrszeichen auf Schilderbrücken an geteilten Fernstraßen groß im Vergleich zu den Verkehrszeichen 204, 206, 208, 210 an der Landstraße. Wie nachstehend detaillierter beschrieben, kann die Rechenvorrichtung 115 eine Datenbank in Verbindung mit den Verkehrszeichen 202, 204, 206, 208 unterhalten. Die Datenbank kann Karteninformationen einschließlich erwarteter Größen für die Verkehrszeichen 202, 204, 206, 208 an oder nahe den Standorten, wie nachstehend definiert, der Cluster 504, 506, 508, 510 beinhalten.
  • In den LIDAR-Daten 500 entsprechen die Cluster 504, 506, 508, 510 jeweils den Verkehrszeichen 204, 206, 208, 210. Clusteranalyse kann mit Ebenenanpassung unter Verwendung von Techniken der kleinsten Quadrate kombiniert werden, beispielsweise um den Standort, die Größe und Lage von am besten passenden Ebenen für jeden Cluster 504, 506, 508, 510 zu bestimmen, wobei Standort definiert ist als die X-, Y- und Z-Koordinaten des Clusters 504, 506, 508, 510 im 3D-Raum, die Größe definiert ist als die Abmessungen der am besten passenden ebenen Formen zu den Clustern 504, 506, 508, 510 und die Lage definiert ist als die Orientierung einer Ebene im 3D-Raum, wie sie durch Rotationen um die X-, Y- und Z-Achsen bestimmt ist.
  • 6 zeigt ein Diagramm eines Videobildes 600 mit den Schilder-Standorten 604, 606, 608, 610. Die Schilder-Standorte 604, 606, 608, 610 werden basierend auf den Clustern 504, 506, 508, 510 bestimmt, die in den LIDAR-Daten 500 durch Clusteranalyse bestimmt werden, wie vorstehend behandelt. Da die LIDAR-Daten 500 3D-Reichweite oder -Abstände beinhalten, sind der Winkel und der Abstand zu den Clustern 504, 506, 508, 510 vom Fahrzeug 110 bekannt. Da der Standort der Videokamera und die Brennweite und optische Vergrößerung des optischen Systems bekannt sind, kann der Standort der Cluster 504, 506, 508, 510 im Videobild 600 z. B. nach bekannten Techniken bestimmt werden. Standort(e) der Clustern 504, 506, 508, 510 kann(können) dann auf dem Videobild 600 mittels bekannter Anzeigetechniken jeweils als die Schilder-Standorte 604, 606, 608, 610 projiziert werden.
  • Videobilder in Verbindung mit den Schilder-Standorten 604, 606, 608, 610 können isoliert und homografisch transformiert werden, um eine vertikal orientierte Frontalansicht von ebenen Flächen zu erzeugen, die dann auf die Primärseiten der Schilder-Standorte 604, 606, 608, 610 projiziert werden, um die Verkehrszeichen 704, 706, 708, 710 zu erzeugen, die in diesem Schriftstück als Verkehrszeichen 700 bezeichnet werden, wie aus 7 ersichtlich. Die Lage in Verbindung mit jedem der Cluster 504, 506, 508, 510 kann dazu verwendet werden, isolierte Videobilder in Verbindung mit den Verkehrszeichen-Standorten 604, 606, 608, 610 durch homografische Projektion zu „entzerren“, um Verkehrszeichen 700 basierend auf den isolierten Videobildern in Verbindung mit den Verkehrszeichen-Standorten 604, 606, 608, 610 zu erzeugen.
  • Homografische Projektion ist eine bekannte Technik für maschinelles Sehen, die in diesem Beispiel die isolierten Videobilder in Verbindung mit den Verkehrszeichen-Standorten 604, 606, 608, 610 transformiert und reprojiziert, um sie erscheinen zu lassen, als ob die Kamera, die das Videobild in Verbindung mit den Verkehrszeichen-Standorten 604, 606, 608, 610 aufnimmt, im rechten Winkel zur Primärfläche der Verkehrszeichen 700 gesehen würden, um Zeichenerkennung und Abgleich von Schildern zu unterstützen.
  • Ein Beispiel für homografische Projektion ist durch Vergleich des Videobildes eines „EINFAHRT-VERBOTEN“-Schildes 606 des Videobildes 600 veranschaulicht, wobei die Primärfläche des „EINFAHRT-VERBOTEN“-Schildes 606 sich in einem Winkel zur Bildebene befindet, was zu einem nicht rechtwinkligen isolierten Videobild in Verbindung mit dem Verkehrszeichen-Standort 606 führt. Ein nichtrechwinkliges isoliertes Videobild in Verbindung mit dem Verkehrszeichen-Standort 606 kann in das rechtwinklige Verkehrszeichen 706 mittels homografischer Projektions-Parameter basierend z. B. auf der bestimmten Lage des Clusters 506 in den LIDAR-Daten 500 transformiert werden.
  • Homografische Projektionsparameter können den Winkel zwischen einer Senkrechten zur Primärfläche eines Verkehrszeichens 700 und einer Senkrechten zu einer Ebene, die an ein Cluster 504, 506, 508, 510 angepasst ist, und die Größendifferenz beispielsweise zwischen der Primärfläche eines Verkehrszeichens 700 und der Größe einer Ebene, die an ein Cluster 504, 506, 508, 510 angepasst ist, beinhalten. Homografische Projektion kann ein verzerrtes Bild eines Verkehrszeichens 700, das durch Videobilder in Verbindung mit den Schilder-Standorten 604, 606, 608, 610 dargestellt wird, in nicht verzerrte Verkehrszeichen 700 transformieren.
  • Im Anschluss an homografische Projektion können bekannte Techniken für maschinelles Sehen auf die Verkehrszeichen 700 angewandt werden, um Semantik in Verbindung mit den Verkehrszeichen 700 einschließlich Zeichen, Wörtern, Formen und Farben zu bestimmen. Weitere Semantik in Verbindung mit den Verkehrszeichen 700 beinhaltet Standort und Lage. Die Semantik in Verbindung mit den Verkehrszeichen 700 kann durch Durchführung von Zeichenerkennung und Schilderabgleich an den Verkehrszeichen 700 mit bekannten Techniken für maschinelles Sehen einschließlich optischer Zeichenerkennung (OCR) bestimmt werden, um beispielsweise Zeichen und Wörter zu erkennen, und normalisierte Korrelation, um Formen zu erkennen.
  • Durch Schilderabgleich kann Semantik beispielsweise in Verbindung mit piktografischen Schildern bestimmt werden. Schilderabgleich kann in Bezug auf unleserlich gewordene Schilder auf wenig störungsanfällige Weise gestaltet werden, indem die Semantik aus der Form und Farbe des Schildes, z. B. Stopp-Schildern oder Vorfahrt-gewähren-Schildern beispielsweise, geschlossen werden kann. Zusätzlich zu Zeichen und Wörtern in Verbindung mit den Verkehrszeichen 700 können beispielsweise auch der Standort und die Lage der Verkehrszeichen 700 bezogen auf das Fahrzeug 110 Information zum Führen bereitstellen.
  • Beispielsweise können Positionen und Lagen der Verkehrszeichen 700 Standort und Richtung der Straße 202 in Bezug auf das Fahrzeug 110 bestimmen, da ein Standort und eine Lage der Verkehrszeichen 700 bezogen auf die Straße 202 vorgegeben und in einer Datenbank enthalten sein können, die im nichtflüchtigen Speicher in Verbindung mit der Rechenvorrichtung 115 enthalten ist. Basierend auf den Standorten und Lagen der Verkehrszeichen 700 und einer Datenbank von Verkehrszeichen-Standorten und -Lagen kann der Standort und die Lage des Fahrzeugs 110 bezogen auf die Straße 202 bestimmt werden.
  • Da die Verkehrszeichen 700 innerhalb eines vorgegebenen Bereichs von Abständen in einem vorgegebenen Bereich von Lagen der Straße 202 angeordnet sind, können mangels Datenbankinformationen in Bezug auf Standorte und Lagen der Verkehrszeichen 700 der Standort einer Straße 202 durch Kombinieren der Semantik in Verbindung mit den Verkehrszeichen 700 mit den LIDAR-Daten 300, 400, 500 einschließlich Informationen über die 3D-Reichweite und die Videobilder 200, 600 kombiniert werden, um den Standort der Straße 202 in Bezug auf das Fahrzeug 110 zu bestimmen.
  • In der Rechenvorrichtung 115 enthaltene Navigationsprozesse können eine Datenbank von Verkehrszeichen-Semantik einschließlich Text, Formen, Designs und Farben in Verbindung mit dem Universum möglicher Verkehrszeichen im nichtflüchtigen Speicher enthalten. Da Verkehrszeichen je Land oder Region einheitlich sind, können Navigationsprozesse aktualisiert werden, um lokale Verkehrszeichen-Semantik durch Bestimmen des Fahrzeugstandorts beispielsweise mit GPS zu beinhalten.
  • Navigationsprozesse können Befehle und Regeln in Verbindung mit Semantik in Verbindung mit den Verkehrszeichen 700 enthalten, wobei die Befehle Signale beinhalten, die von der Rechenvorrichtung 115 an die Steuerungen 112, 113, 114 gesandt werden, um die Bewegung des Fahrzeugs 110 zu steuern, und die Regeln Grenzwerte beinhalten, die in Zusammenhang mit dem Standort, der Bewegung und dem Betriebszustand des Fahrzeugs gesetzt werden. Von der Semantik in Verbindung mit den Verkehrszeichen 700 bestimmte Befehle und Regeln können durch in der Rechenvorrichtung 115 enthaltene Navigationsprozesse verwendet werden, um einen sicheren Weg und die gesetzlich zulässige Geschwindigkeit zu bestimmen, mit der das Fahrzeug 110 in der realen Welt geführt wird.
  • Beispielsweise kann die Semantik in Verbindung mit dem Verkehrszeichen 704 in Verbindung mit einer Regel stehen, 50 mph nicht zu überschreiten. Als Reaktion auf diese Regel gibt die Rechenvorrichtung 115 Befehle an die Steuerungen 112, 113, 114 aus, zu bewirken, dass das Fahrzeug 110 mit weniger als 50 mph fährt. Die Semantik in Verbindung mit dem Verkehrszeichen 706 kann in Verbindung mit einer Regel stehen, beispielsweise zu ungünstigen Zeiten nicht rechts abzubiegen. In diesem Fall würde die Rechenvorrichtung 115 an die Steuerungen 112, 113, 114 keine Befehle zum Rechtsabbiegen zu ungünstigen Zeiten ausgeben. Die Semantik in Verbindung mit den Verkehrszeichen 708, 710 kann einer Regel zugeordnet sein, Bewegungen des Fahrzeugs 110 zu entsprechenden Spuren der Straße 202 einzuschränken, und beinhalten, dass die Rechenvorrichtung 115 Befehle zum Linksabbiegen an die Steuerungen 112, 113, 114 ausgibt, um die Geschwindigkeit und Richtung der Bewegungen des Fahrzeugs 110 zum entsprechenden Zeitpunkt zum Linksabbiegen und Verbleiben in einer entsprechenden Spur auf der Straße 202 zu steuern.
  • 8 ist ein Prozessablaufdiagramm eines Prozesses 800 zum Führen der Fahrzeuge 110 im autonomen Betrieb, wie beschrieben in Bezug auf 2-7. Der Prozess 800 kann durch einen Prozessor der Rechenvorrichtung 115 implementiert werden, wobei er als Eingang Informationen von den Sensoren 116 nutzt und beispielsweise über die Steuerungen 112, 113, 114 Anweisungen ausgeführt und Steuersignale gesandt werden. Der Prozess 800 beinhaltet mehrere Schritte, die in der offenbarten Reihenfolge ausgeführt werden. Der Prozess 800 beinhaltet ebenfalls Implementierungen, die weniger Schritte beinhalten, oder kann beinhalten, dass die Schritte in unterschiedlicher Reihenfolge ausgeführt werden.
  • Der Prozess 800 beginnt bei Schritt 802, wobei die Rechenvorrichtung 115 gemäß dem Prozess 800 die Verkehrszeichen-Standorte 604, 606, 608, 610 in Verbindung mit den Verkehrszeichen 204, 206, 208, 210 in den LIDAR-Daten 500 bestimmt, wie vorstehend in Bezug auf die vorstehenden 3-5 beschrieben. Unter bestimmen verstehen wir: den Standort von Verkehrszeichen identifizieren, berechnen, quantifizieren, finden, lokalisieren, identifizieren oder auf eine beliebige andere Weise bestimmen. Die Verkehrszeichen 204, 206, 208, 210 sind ebene reflektierende Objekte mit Grafiken, die von den Insassen gesehen werden sollen, um sie beim sicheren und legalen Führen von insassengeführten Fahrzeugen zu unterstützen. Die Rechenvorrichtung 115 kann die Verkehrszeichen-Standorte 604, 606, 608, 610 bestimmen, wie vorstehend in Bezug auf 3-5 beschrieben, indem mittels Clusteranalyse der Standort und die Lage der Cluster 504, 506, 508, 510 in den LIDAR-Daten 500 von hoher Intensität bestimmt werden, die den Verkehrszeichen-Standorten 604, 606, 608, 610 entsprechen.
  • Als Nächstes werden bei Schritt 804 die Verkehrszeichen 700 in den Videobildern 200, 600 basierend auf den Schilder-Standorten 604, 606, 608, 610 identifiziert. Wie vorstehend in Bezug auf 6 behandelt, können die Schilder-Standorte 604, 606, 608, 610, die in den LIDAR-Daten 500 bestimmt wurden, auf das Videobild 600 dazu angewandt werden, um Videobilder der Verkehrszeichen 204, 206, 208, 210 in Verbindung mit den Schilder-Standorten 604, 606, 608, 610 zu isolieren. Die isolierten Videobilder in Verbindung mit den Schilder-Standorten 604, 606, 608, 610 können homografisch transformiert und projiziert werden, wie vorstehend in Bezug auf 6 und 7 beschrieben, um die Verkehrszeichen 700 zu erzeugen.
  • Die Semantik in Verbindung mit den Verkehrszeichen 700 kann von der Rechenvorrichtung 115 mittels Zeichenerkennung und Abgleich von Schildern bestimmt werden, wie vorstehend in Bezug auf 7 behandelt, um Semantik in Verbindung mit den Verkehrszeichen 700 zu bestimmen. Die Semantik in Verbindung mit den Verkehrszeichen 700 kann beispielsweise Text, Formen, Standorte, Lagen und Farben enthalten. In diesem Beispiel beinhaltet die Semantik in Verbindung mit den Verkehrszeichen 700 beispielsweise „GESCHWINDIGKEITSBESCHRÄNKUNG AUF 50 MPH“, „EINFAHRT VERBOTEN“ und „Pfeil nach links“.
  • Als Nächstes kann die Rechenvorrichtung 115 bei Schritt 806 die Semantik in Verbindung mit den Verkehrszeichen 704, 706, 708, 710 auf einer digitalen Karte basierend auf der Semantik in Verbindung mit den Verkehrszeichen 700 und den Schilder-Standorten 604, 606, 608, 610 beinhalten. Die Identität der Verkehrszeichen 700 kann basierend auf der Semantik in Verbindung mit den Verkehrszeichen 700 und den Standorten 604, 606, 608, 610 der Verkehrszeichen 700, bestimmt in Bezug auf Fahrzeug 110, auf einer digitalen Karte enthalten sein. Die digitale Karte kann von der Rechenvorrichtung 115 gespeichert werden, um das Fahrzeug 110 zu führen, und zum Remote-Servercomputer 120 oder über die V/I-Schnittstelle 111 hochgeladen werden. Zum Remote-Servercomputer 120 hochgeladene digitale Karten können heruntergeladen und für Routenplanung, zum Führen von Fahrzeugen usw., verwendet werden.
  • Das Führen eines Fahrzeugs basierend auf einer digitalen Karte kann das Ausführen von Hardware- und Software-Prozessen auf der Rechenvorrichtung 115 beinhalten. Die Rechenvorrichtung 115 kann, wie detaillierter nachstehend in Bezug auf 9 beschrieben, als Eingang eine digitale Karte verwenden, die Identitäten und Standorte in Verbindung mit den Verkehrszeichen 700 beinhaltet, um das Fahrzeug 110 zu führen.
  • Zusammenfassend kann die Rechenvorrichtung 115 gemäß dem Prozess 800 Verkehrszeichen-Standorte in den LIDAR-Daten 300, 400, 500 durch Ausfiltern von Rückläufern von niedriger Intensität und Bestimmen der Rückläufer-Cluster 504, 506, 508, 510 von hoher Intensität bestimmen. Die Cluster 504, 506, 508, 510 von hoher Intensität werden kombiniert mit den Videobildern 200, 600, um die Semantik in Verbindung mit den Verkehrszeichen 704, 706, 708, 710 zu bestimmen. Die in Verbindung mit den Verkehrszeichen 704, 706, 708, 710 bestimmte Semantik kann zumindest teilweise einen Weg und eine Geschwindigkeit bestimmen, mit der das Fahrzeug 110 sicher und legal in der umgebenden realen Welt fahren kann.
  • 9 ist ein in Bezug auf 2-7 beschriebenes Prozessablaufdiagramm eines Prozesses 900 zum Führen der Fahrzeuge 110 in autonomem Betrieb. Der Prozess 900 kann durch einen Prozessor der Rechenvorrichtung 115 implementiert werden, wobei als Eingang Informationen von den Sensoren 116 verwendet werden und beispielsweise über die Steuerungen 112, 113, 114 Anweisungen ausgeführt und Steuersignale gesandt werden. Der Prozess 900 beinhaltet mehrere Schritte, die in der offenbarten Reihenfolge ausgeführt werden. Der Prozess 900 beinhaltet ebenfalls Implementationen, die weniger Schritte beinhalten, oder kann die die Ausführung der Schritte in unterschiedlicher Reihenfolge beinhalten können.
  • Der Prozess 900 beginnt bei Schritt 902, wo die Rechenvorrichtung 115 gemäß dem Prozess 900 die LIDAR-Daten 300 einschließlich der Rückläufer 302, 304, 306, 308, 310 sammelt. Wie vorstehend behandelt, ist LIDAR eine Technik zum Senden von abgetasteten Lichtimpulsen, die z. B. von einem Laser stammen können, und Messen der Flugzeit der Impulse zum Bestimmen der 3D-Reichweite oder des -Abstandes zu Punkten in der umgebenden realen Welt.
  • Jeder Datenpunkt oder jeder Rückläufer 302 in den LIDAR-Daten 300 weist bekanntlich Aspekte einschließlich Reichweite und Intensität auf. Wie vorstehend behandelt, können die Verkehrszeichen 204, 206, 208, 210 aufgrund ihrer speziellen Konstruktion Rückläufer von hoher Intensität in den LIDAR-Daten 300 bereitstellen, wie vorstehend in Bezug auf 3 behandelt.
  • Als Nächstes kann bei Schritt 904 die Rechenvorrichtung 115 Rückläufer von hoher Intensität 402, 404, 406, 408, 410 in den LIDAR-Daten 400 isolieren, wie in 4 dargestellt, indem sie Rückläufer von niedriger Intensität ausfiltert, wie vorstehend in Bezug auf 4 behandelt.
  • Als Nächstes kann bei Schritt 906 die Rechenvorrichtung 15 die LIDAR-Daten 500 durch Clusteranalyse zu den Clustern 504, 506, 508, 510 zusammenführen, wie vorstehend in Bezug auf 6 behandelt.
  • Als Nächstes kann bei Schritt 908 die Rechenvorrichtung 115 die LIDAR-Daten 500 der Cluster 504, 506, 508, 510 filtern, um Cluster zu entfernen, die nicht die vorgegebenen Kriterien erfüllen, um ein Verkehrszeichen darzustellen. Die Cluster 504, 506, 508, 510, die aufgrund von Größe und Form nicht erkennbar wären oder aufgrund der Lage verzerrt wären, können aus den LIDAR-Daten 300, 400, 500 herausgefiltert werden, wie vorstehend in Bezug auf 6 behandelt. Die Cluster 504, 506, 508, 510, die zu groß sind, können durch die Rechenvorrichtung 115 analysiert werden, um zu bestimmen, ob es sich um mehrere Schilder handelt. Vorgegebene Datenbankinformationen, wie vorstehend in Bezug auf 7 und 8 behandelt, können zur Bestimmung der geeigneten Filtergrößen verwendet werden.
  • Als Nächstes kann bei Schritt 910 die Rechenvorrichtung 115 die Videobilder 200, 600 erfassen. Die Videobilder 200, 600 können erfasst werden durch Videokameras, die in den Sensoren 116 enthalten sind, die im Fahrzeug 110 enthalten sind, wie in diesem Schriftstück behandelt. Die Videobilder 200, 600 können zu bekannten Zeiten und an bekannten Orten entsprechend in den Sensoren 116 enthaltenen Trägheits-Lagesensoren erfasst werden. Wie in Bezug auf 6 beschrieben, kann - da die LIDAR-Daten 300, 400, 500 zu bekannten Zeiten und an bekannten Standorten erfasst werden und die Abtastgeometrie der LIDAR-Daten 300, 400, 500 und die Brennweite und Vergrößerung der Videokameras bekannt sind, die Entsprechung zwischen Standorten auf den Videobildern 200, 600 und Standorten der Cluster 504, 506, 508, 510 auf die bekannte Weise bestimmt werden.
  • Durch Untersuchung der Cluster 504, 506, 508, 510 kann der beste Zeitpunkt bestimmt werden, um die Videobilder 200, 600 basierend auf der Vorhersage zu erfassen, an dem eine Ansicht der Verkehrszeichen 704, 706, 708, 710 verfügbar sein wird, die die Durchführung der Zeichenerkennung und des Abgleichs von Schildern auf den Videobildern ermöglicht, die beispielsweise mit den Schilderstandorten 604, 606, 608, 610 in Zusammenhang stehen. Mehrere Videobilder 200, 600 können mit mehreren Sätzen von LIDAR-Daten 500 kombiniert werden, um z. B. Ansichten von jedem der Verkehrszeichen 704, 706, 708, 710 zu bestimmen. Die Rechenvorrichtung 115 kann z. B. basierend auf Standort und Lage der Cluster 504, 506, 508, 510 bezogen auf Fahrzeug 110 vorhersagen, innerhalb von welchem Videobild 200 600 von mehreren Videobildern 200 600 welches Cluster 504, 506, 508, 510 welchen Videobildern 200 600 zugeordnet werden kann, um für das Bestimmen der Semantik erfolgreich verarbeitet zu werden.
  • Als Nächstes kann bei Schritt 912 die Entsprechung zwischen Standorten in den Videobildern 200, 600 und Standorten der Cluster 504, 506, 508, 510 dazu verwendet werden, Videobilder der Standorte der Verkehrszeichen 604, 606, 608, 610 zu isolieren. Das Isolieren von Videobildern von Standorten der Verkehrszeichen 604, 606, 608, 610 ermöglicht der Rechenvorrichtung 115 die Durchführung von rechenintensiven Aufgaben mit der relativ kleinen Anzahl von Pixeln, die in isolierten Videobildern im Zusammenhang mit Standorten der Verkehrszeichen 604, 606, 608, 610 enthalten sind, beispielsweise im Gegensatz zu vollständigen Videobildern 200, 600.
  • Bei Schritt 914 kann die Rechenvorrichtung sich der Zeichenerkennung und des Abgleichs von Schildern bedienen, um die Semantik in Verbindung mit den Verkehrszeichen 700 zu bestimmen. Wie vorstehend behandelt, beinhaltet die Semantik in Verbindung mit 7 beispielsweise Text, Formen, Standorte, Lagen und Farben. Das Zuordnen der Semantik kann bezogen auf beschädigte oder teilweise unkenntliche Verkehrszeichen 700 auf wenig störungsanfällige Weise gestaltet werden. So kann beispielsweise ein Stoppschild teilweise durch Laub verdeckt sein. Dabei können semantische Zuordnungen beispielsweise auf „die Farbe Rot“ und „ST“ beschränkt werden. Dies kann für eine Rechenvorrichtung 115 ausreichend sein, um ein Stoppschild semantisch zu erkennen.
  • Bei Schritt 916 kann die Rechenvorrichtung 115 Identitäten der Verkehrszeichen 700 basierend auf der Semantik in Verbindung mit den Verkehrszeichen 700 und den Schilder-Standorten 604, 606, 608, 610 auf einer digitalen Karte beinhalten. Die digitale Karte kann auf einen Remote-Servercomputer 120 über die V/I-Schnittstelle 111 hochgeladen werden. Nach dem Hochladen auf einen Remote-Servercomputer 120 kann die digitale Karte beispielsweise mit anderen digitalen Karten kombiniert werden. Auf einen Remote-Servercomputer 120 hochgeladene digitale Karten können von Nutzern und/oder Fahrzeugen heruntergeladen werden, wie vorstehend beschrieben.
  • In einem Beispiel können digitale Karten von der Rechenvorrichtung 115 dazu eingesetzt werden, das Fahrzeug 110 zu führen, wie vorstehend in Bezug auf 8 behandelt. Das Navigations-Teilsystem kann eine Karte für die reale Welt in der Nähe, einschließlich Straßen 202 und Objekte, wie beispielsweise Fahrzeuge, unterhalten. Die mit den Verkehrszeichen 700 verbundene Identität und Standorte können zumindest teilweise sichere und legale Wege bestimmen, auf denen das Fahrzeug 110 fahren kann.
  • Die Verkehrszeichen 700 können es einer Rechenvorrichtung 115 ermöglichen, eine digitale Karte und einen sicheren und/oder legalen Weg zum Bewegen des Fahrzeugs 110 zu bestimmen, zusammen mit einer digitalen Karte, um einen gewünschten Zielort durch Identifizieren der Verkehrszeichen 700 in Echtzeit zu erreichen. Durch Identifizieren und Verstehen der Semantik und somit einer Identität in Verbindung mit den Verkehrszeichen 700 kann es dem Fahrzeug 110 möglich sein, auf dynamische Veränderungen in der Verkehrsregelung, wie z. B. wechselnde Routen und Geschwindigkeiten an Baustellen zu reagieren. Die mit den Verkehrszeichen 700 verbundene Semantik kann zum Aktualisieren der Datenbank und der Karten durch Informationen verwendet werden, die in Echtzeit aus der realen Welt, die das Fahrzeug 110 umgibt, erfasst wurden. Dadurch kann die Rechenvorrichtung 115 das Fahrzeug 110 in dynamischen Verkehrssituationen wie beispielsweise Umleitungen und in beiden Richtungen genutzten Fahrspuren zu führen.
  • Das Navigations-Teilsystem kann mit dem Servercomputer 120, einem Nutzer-Mobilgerät 160 oder anderen Fahrzeugen 110 z. B. über das Netzwerk 130 und die V/I-Schnittstelle 111 kommunizieren, um digitale Karten zu erhalten, die nach den offenbarten Beispielen konstruiert sind. Mit dem Navigationsprozess verbundene Datenbanken können eine umfassende Bibliothek von Verkehrszeichen 204, 206, 208, 210 speichern und verfügen über gespeicherte Befehle und Regeln, die mit jedem von ihnen in Zusammenhang stehen. GPS- und Trägheitslageninformationen können in den Sensoren 116 enthalten sein, um Fahrzeug 110 auf einer Karte zu orten und die Richtung und eine Geschwindigkeit zu bestimmen, mit der das Fahrzeug beispielsweise fährt.
  • Bei Schritt 918 kann die mit den Verkehrszeichen 700 verbundene Semantik der Ausgang zur Rechenvorrichtung 115 sein, um das Fahrzeug 110 basierend auf der Semantik in Verbindung mit Verkehrszeichen 700 zu führen. Der in der Rechenvorrichtung 115 enthaltene Prozess des Virtuellen Fahrers kann sich ebenfalls auf die Karten stützen, die vom Navigations-Teilsystem basierend auf der Semantik in Verbindung mit den Verkehrszeichen 700 bestimmt und aktualisiert werden, wie vorstehend in Bezug auf 8 beschrieben.
  • So kann zum Beispiel das Navigations-Teilsystem einen sicheren und legalen Weg für das Fahrzeug 110 bestimmen, um basierend auf der Semantik in Verbindung mit den Verkehrszeichen 700 zu fahren. Basierend auf der Semantik in Verbindung mit den Verkehrszeichen 704 sollte das Fahrzeug 110 seine Geschwindigkeit auf unter 50 MPH halten. Wenn auch die durch das Navigations-Teilsystem bestimmten Karten eine Straße anzeigen können, die z. B. zum nächsten Verkehrszeichen rechts 706 abzweigt, zeigt die mit dem Verkehrszeichen 706 verbundene Semantik an, dass das Fahrzeug 110 nicht in die Straße einfahren sollte, da die mit dem Verkehrszeichen 706 verbundene Semantik enthält „EINFAHRT VERBOTEN“. Ebenso zeigt die mit den Verkehrszeichen 708, 710 verbundene Semantik an, dass die Straßen nach links abbiegt und das Fahrzeug 110 bereit sein sollte, nach links abzubiegen, um z. B. in der richtigen Fahrspur auf der Straße 202 zu bleiben.
  • Das Führen eines Fahrzeugs 110 mit dem Computer 115 basierend auf der mit den Verkehrszeichen 700 verbundenen Semantik kann das Unterstützen eines insassengeführten Fahrzeugs 110 beinhalten. So kann z. B. die Rechenvorrichtung 115 bestimmen, dass das insassengeführte Fahrzeug 110 eine durch das Verkehrszeichen 704 bestimmte, ausgeschilderte Geschwindigkeitsbeschränkung überschreitet. Die Rechenvorrichtung 115 kann den Insassen-Fahrzeugführer warnen und/oder Befehle ausgeben, um die Geschwindigkeit von Fahrzeug 110 zu beschränken. Auf ähnliche Weise kann die Rechenvorrichtung 115 den Insassen-Fahrzeugführer davor warnen, nach einem „EINFAHRT VERBOTEN“-Schild nach rechts abzubiegen, und/oder verhindern, dass das Fahrzeug 110 abbiegt, indem sie keine Befehle zum Rechtsabbiegen an die Steuerungen 112, 113, 114 sendet.
  • Zusammenfassend beschreibt der Prozess 900 einen Prozess zum Sammeln von LIDAR-Daten, Isolieren, Clusterbildung und Filtern der Daten, Erfassen von Videodaten, Isolieren von Videobildern von Verkehrszeichen basierend auf den LIDAR-Daten, Durchführung von OCR und Schildererkennung an den isolierten Videobildern der Verkehrszeichen und Ausgabe von Semantik in Verbindung mit den isolierten Videobildern von Verkehrszeichen durch eine Rechenvorrichtung 115.
  • Rechenvorrichtungen, wie die in diesem Schriftstück behandelten, beinhalten im Allgemeinen jeweils Anweisungen, die durch eine oder mehrere Rechenvorrichtung(en) ausführbar sind, wie z. B. die vorstehend identifizierten, und zum Ausführen der vorstehend beschriebenen Prozessblöcke oder -Schritte. Die vorstehend behandelten Prozessblöcke können z. B. als computer-ausführbare Anweisungen ausgeführt sein.
  • Computer-ausführbare Anweisungen können mittels Computerprogrammen, die mit Hilfe einer Vielzahl von Programmierungssprachen und/oder -Technologien generiert wurden, einschließlich u. a. und entweder allein oder in Kombination Java™, C, C++, Visual Basic, Java Script, Perl, HTML usw., kompiliert oder interpretiert werden. Im Allgemeinen empfängt ein Prozessor (z. B. ein Mikroprozessor) Anweisungen, z. B. von einem Speicher, einem computerlesbaren Medium, usw., und führt diese Anweisungen aus, wobei er einen oder mehrere Prozesse durchführt, einschließlich einen oder mehrere der in diesem Schriftstück beschriebenen Prozesse. Derartige Anweisungen und weitere Daten können in Dateien gespeichert und mittels einer Vielzahl von computerlesbaren Medien übertragen werden. Eine Datei in einer Rechenvorrichtung ist im Allgemeinen eine Sammlung von Daten, die auf einem computerlesbaren Medium gespeichert sind, wie z. B. einem Speichermedium, einem Direktzugriffsspeicher usw.
  • Ein computerlesbares Medium beinhaltet jedes Medium, das an der Bereitstellung von Daten (z. B. Anweisungen), die von einem Computer gelesen werden können, beteiligt ist. Ein derartiges Medium kann zahlreiche Formen aufweisen einschließlich u. a. nichtflüchtige Medien, flüchtige Medien usw. Nichtflüchtige Medien beinhalten z. B. optische oder Magnetplatten und andere persistente Speicher. Flüchtige Medien beinhalten dynamische Direktzugriffsspeicher (DRAM), die typischerweise einen Hauptspeicher stellen. Häufige Formen von computerlesbaren Medien beinhalten z. B. eine Floppy Disk, eine flexible Diskette, Festplatte, Magnetband, ein beliebiges anderes magnetisches Medium, eine CD-ROM, DVD, ein beliebiges anderes optisches Medium, Lochkarten, Papierband, ein beliebiges anderes physisches Medium mit Lochmustern, ein RAM, ein PROM, ein EPROM, ein FLASH-EEPROM, eine(n) beliebige(n) andere(n) Speicherchip oder -Kassette, oder ein beliebiges anderes Medium, von dem ein Computer lesen kann.
  • Alle in den Ansprüchen verwendeten Begriffe sollen ihre einfachen und normalen Bedeutungen erhalten, so wie sie von einem Fachmann verstanden werden, sofern nicht in diesem Schriftstück ausdrücklich das Gegenteil angegeben ist. So sollte insbesondere die Verwendung von Artikeln im Singular, wie „ein/e/es,“ „der/die/das,“ „genannt/e/s,“ usw. so gelesen werden, dass sie eines oder mehrere der angegebenen Elemente wiedergeben, sofern nicht in einem Anspruch eine ausdrückliche gegenteilige Einschränkung wiedergegeben ist.
  • Der Begriff „beispielhaft“ ist in diesem Schriftstück in dem Sinn verwendet, dass er ein Beispiel bedeutet, z. B. sollte ein Verweis auf ein „beispielhaftes Widget“ einfach als Verweis auf ein Beispiel eines Widgets gelesen werden.
  • Das einen Wert oder ein Ergebnis modifizierende Adverb „ungefähr“ bedeutet, dass eine Form, Struktur, Messung, ein Wert, eine Bestimmung, Berechnung usw. von einer genau beschriebenen Geometrie, Entfernung, Messung, einem Wert, einer Bestimmung, Berechnung usw. aufgrund von Mängeln in Materialien, Bearbeitung, Herstellung, Sensormessungen, Berechnungen, Verarbeitungsdauer, Kommunikationsdauer usw. abweichen können.
  • In den Zeichnungen geben dieselben Bezugszahlen dieselben Elemente an. Weiterhin könnten einige oder alle dieser Elemente ausgetauscht werden. Bezüglich der in diesem Schriftstück beschriebenen Medien, Prozesse, Systeme, Verfahren usw. versteht sich, dass - obwohl die Schritte dieser Prozesse usw. als in einer bestimmten geordneten Abfolge stattfindend beschrieben wurden - diese Prozesse mit den beschriebenen Schritten in einer anderen Reihenfolge als in der hier beschriebenen Reihenfolge durchgeführt werden könnten. Weiterhin versteht sich, dass bestimmte Schritte gleichzeitig durchgeführt werden könnten, dass weitere Schritte hinzugefügt werden könnten oder dass bestimmte in diesem Schriftstück beschriebene Schritte weggelassen werden könnten. Mit anderen Worten: die Beschreibungen der Prozesse in diesem Schriftstück sind zur Veranschaulichung von bestimmten Ausführungsformen bereitgestellt und sollten in keiner Weise so ausgelegt werden, dass sie die beanspruchte Erfindung einschränkten.

Claims (15)

  1. Verfahren, umfassend: Bestimmen eines Standortes eines Verkehrszeichens in LIDAR-Daten; Identifizieren eines Verkehrszeichens in einem oder mehreren Videobildern, basierend auf dem Standort des Verkehrszeichens; und Einschließen des Verkehrszeichens in eine digitale Karte, basierend auf der Identität des Verkehrszeichens und dem Standort des Verkehrszeichens.
  2. Verfahren nach Anspruch 1, weiterhin umfassend: Bestimmen des Standorts des Verkehrszeichens durch: Bestimmen der Standorte von isolierten Rückläufern von hoher Intensität in den LIDAR-Daten; und Bestimmen des Standorts von Verkehrszeichen durch Clusterbildung und Filtern der Standorte von isolierten Rückläufern von hoher Intensität in den LIDAR-Daten.
  3. Verfahren nach Anspruch 2, wobei Rückläufer von hoher Intensität durch retroflektierende Materialien generiert werden.
  4. Verfahren nach Anspruch 1, wobei das Identifizieren des Verkehrszeichens in den Videobildern basierend auf dem Standort des Verkehrszeichens das Isolieren von Videobildern des Verkehrszeichens von den Videobildern basierend auf dem Standort des Verkehrszeichens beinhaltet.
  5. Verfahren nach Anspruch 4, wobei die isolierten Videobilder homografisch projiziert werden.
  6. Verfahren nach Anspruch 5, wobei das Identifizieren des Verkehrszeichens in den isolierten Videobildern basierend auf dem Standort des Verkehrszeichens das Durchführen von Zeichenerkennung und Abgleich von Schildern auf den isolierten Videobildern beinhaltet.
  7. Verfahren nach Anspruch 1, weiterhin umfassend: Hochladen des Verkehrszeichens in eine Rechenvorrichtung und Einschließen des Verkehrszeichens in eine digitale Karte, basierend auf der Identität des Verkehrszeichens und dem Standort des Verkehrszeichens.
  8. Verfahren nach Anspruch 7, weiterhin umfassend: Herunterladen der digitalen Karte aus der Rechenvorrichtung und Führen eines Fahrzeugs basierend auf der digitalen Karte.
  9. Verfahren nach Anspruch 1, weiterhin umfassend das Bestimmen des Standortes des Verkehrszeichens in zwei oder mehr LIDAR-Datensätzen.
  10. Verfahren nach Anspruch 1, weiter umfassend das Führen eines Fahrzeugs basierend auf der digitalen Karte.
  11. Verfahren nach Anspruch 10, wobei das Führen eines Fahrzeugs das Bestimmen der Navigation basierend auf der digitalen Karte beinhaltet.
  12. Verfahren nach Anspruch 5, wobei die homografische Projektion beinhaltet: zuerst Bestimmen von Lagen für die isolierten Videobilder basierend auf LIDAR-Daten, dann Projizieren der isolierten Videobilder, um vertikal orientierte Frontalansichten der isolierten Videobilder zu erzeugen.
  13. Verfahren nach Anspruch 6, wobei Zeichenerkennung und Abgleich von Schildern durch optische Zeichenerkennung und normalisierte Korrelation durchgeführt wird.
  14. Verfahren nach Anspruch 6, wobei Identifizieren des Verkehrszeichens basierend auf der Form des Schildes und der Farbe des Schildes erfolgt.
  15. System, umfassend einen Computer, der dazu programmiert ist, die Verfahren von beliebigen der Ansprüche 1-14 auszuführen.
DE102017125493.5A 2016-11-03 2017-10-30 Verkehrszeichenerkennung Pending DE102017125493A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/342,405 US10528055B2 (en) 2016-11-03 2016-11-03 Road sign recognition
US15/342,405 2016-11-03

Publications (1)

Publication Number Publication Date
DE102017125493A1 true DE102017125493A1 (de) 2018-05-03

Family

ID=60580109

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017125493.5A Pending DE102017125493A1 (de) 2016-11-03 2017-10-30 Verkehrszeichenerkennung

Country Status (6)

Country Link
US (1) US10528055B2 (de)
CN (1) CN108021862B (de)
DE (1) DE102017125493A1 (de)
GB (1) GB2558716A (de)
MX (1) MX2017013738A (de)
RU (1) RU2017134098A (de)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016003424B4 (de) * 2016-03-21 2023-09-28 Elektrobit Automotive Gmbh Verfahren und Vorrichtung zum Erkennen von Verkehrszeichen
CN107818288B (zh) * 2016-09-13 2019-04-09 腾讯科技(深圳)有限公司 标志牌信息获取方法及装置
US10607094B2 (en) * 2017-02-06 2020-03-31 Magna Electronics Inc. Vehicle vision system with traffic sign recognition
US10775501B2 (en) * 2017-06-01 2020-09-15 Intel Corporation Range reconstruction using shape prior
US11392120B2 (en) 2017-09-08 2022-07-19 Motional Ad Llc Planning autonomous motion
DE102017218192A1 (de) * 2017-10-12 2019-04-18 Robert Bosch Gmbh Verfahren und Vorrichtung zur Verkehrsschilderkennung
US10699141B2 (en) 2018-06-26 2020-06-30 Waymo Llc Phrase recognition model for autonomous vehicles
JP7195787B2 (ja) * 2018-06-29 2022-12-26 日立Astemo株式会社 車載電子制御装置
CN113170079A (zh) * 2018-07-30 2021-07-23 小马智行 用于校准车载摄像头的系统和方法
CN109284678A (zh) * 2018-08-17 2019-01-29 宽凳(北京)科技有限公司 路牌语义识别方法及系统
FR3085761B1 (fr) * 2018-09-11 2021-01-15 Continental Automotive France Systeme et procede de localisation de la position d'un objet routier par apprentissage automatique non supervise
US11237256B2 (en) * 2018-09-19 2022-02-01 Waymo Llc Methods and systems for dithering active sensor pulse emissions
CN109271944B (zh) * 2018-09-27 2021-03-12 百度在线网络技术(北京)有限公司 障碍物检测方法、装置、电子设备、车辆及存储介质
DK180774B1 (en) * 2018-10-29 2022-03-04 Motional Ad Llc Automatic annotation of environmental features in a map during navigation of a vehicle
KR102604298B1 (ko) * 2019-01-28 2023-11-17 에스케이텔레콤 주식회사 랜드마크 위치 추정 장치와 방법 및 이러한 방법을 수행하도록 프로그램된 컴퓨터 프로그램을 저장하는 컴퓨터 판독 가능한 기록매체
JP7257814B2 (ja) * 2019-02-21 2023-04-14 日立Astemo株式会社 走行路認識装置
CN110069065B (zh) * 2019-04-24 2022-05-27 合肥柯金自动化科技股份有限公司 一种基于激光导航与图片识别的agv站点定位系统
DE102020111250A1 (de) * 2019-04-25 2020-10-29 Aptiv Technologies Limited Grafische benutzerschnittstelle zur anzeige des verhaltens autonomer fahrzeuge
CN110287803B (zh) * 2019-05-29 2021-07-13 广州小鹏自动驾驶科技有限公司 一种轨迹路标的识别方法及系统
DE102019208384A1 (de) * 2019-06-07 2020-12-10 Robert Bosch Gmbh Verfahren zum Erstellen einer universell einsetzbaren Merkmalskarte
CN112180395B (zh) * 2019-06-13 2023-04-07 北京百度网讯科技有限公司 道路标记的提取方法、装置、设备及存储介质
US11125575B2 (en) * 2019-11-20 2021-09-21 Here Global B.V. Method and apparatus for estimating a location of a vehicle
JP2021149439A (ja) * 2020-03-18 2021-09-27 富士フイルムビジネスイノベーション株式会社 情報処理装置及び情報処理プログラム
US20210327269A1 (en) * 2020-04-15 2021-10-21 Gm Cruise Holdings Llc Utilization of reflectivity to determine changes to traffic infrastructure elements
US11605232B2 (en) * 2020-08-27 2023-03-14 Robert Bosch Gmbh System and method for road sign ground truth construction with a knowledge graph and machine learning
US11514781B2 (en) * 2021-02-16 2022-11-29 International Business Machines Corporation Generating dynamic electrochromic visualizations
CN113076800A (zh) * 2021-03-03 2021-07-06 惠州市博实结科技有限公司 一种道路标志牌检测方法及装置
CN113096395B (zh) * 2021-03-31 2022-03-25 武汉理工大学 一种基于定位与人工智能识别的道路交通安全评价系统
CN113129590A (zh) * 2021-04-12 2021-07-16 武汉理工大学 基于车载雷达与图形测量的交通设施信息智能分析方法
US20230011079A1 (en) * 2021-07-09 2023-01-12 Mutualink, Inc. Dynamic symbol-based system for objects-of-interest video analytics detection

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3745472B2 (ja) * 1996-11-18 2006-02-15 三菱電機株式会社 自走車、自律誘導装置、および自動搬送装置
US6064926A (en) * 1997-12-08 2000-05-16 Caterpillar Inc. Method and apparatus for determining an alternate path in response to detection of an obstacle
DE10131720B4 (de) * 2001-06-30 2017-02-23 Robert Bosch Gmbh Head-Up Display System und Verfahren
DE112006002892B4 (de) * 2005-10-21 2022-01-27 Deere & Company Systeme und Verfahren zum Umschalten zwischen autonomer und manueller Bedienung eines Fahrzeugs
US20080059007A1 (en) 2006-06-09 2008-03-06 Whittaker William L System and method for autonomously convoying vehicles
DE102007042481B4 (de) * 2007-09-06 2022-04-07 Zf Cv Systems Hannover Gmbh Fahrzeugsteuersystem für einen Kraftwagen
DE102008039606A1 (de) * 2008-08-25 2010-03-04 GM Global Technology Operations, Inc., Detroit Kraftfahrzeug mit einem Abstandssensor und einem Bilderfassungssystem
US8761435B2 (en) 2009-06-24 2014-06-24 Navteq B.V. Detecting geographic features in images based on invariant components
US8340438B2 (en) * 2009-12-17 2012-12-25 Deere & Company Automated tagging for landmark identification
US8767066B2 (en) * 2009-12-23 2014-07-01 Empire Technology Development Llc Information provision device using retro-reflecting article
WO2012012655A2 (en) * 2010-07-21 2012-01-26 Eaton Corporation System and method for optimizing fuel economy using predictive environment and driver behavior information
DE102010039634B4 (de) * 2010-08-23 2013-05-08 Ford Global Technologies, Llc Anordnung und Verfahren zur Verkehrszeichenerkennung
KR101030763B1 (ko) * 2010-10-01 2011-04-26 위재영 이미지 획득 유닛, 방법 및 연관된 제어 유닛
US8509982B2 (en) * 2010-10-05 2013-08-13 Google Inc. Zone driving
DE102010062633A1 (de) * 2010-12-08 2012-06-14 Robert Bosch Gmbh Verfahren und Vorrichtung zur Erkennung von Verkehrszeichen in der Umgebung eines Fahrzeuges und Abgleich mit Verkehrszeicheninformationen aus einer digitalen Karte
KR101219767B1 (ko) 2011-07-04 2013-01-17 (주)아세아항측 수치지형도 작성을 위한 차량 모바일 매핑 시스템을 이용한 도로 레이어 현지조사 방법
US8996228B1 (en) * 2012-09-05 2015-03-31 Google Inc. Construction zone object detection using light detection and ranging
US9056395B1 (en) * 2012-09-05 2015-06-16 Google Inc. Construction zone sign detection using light detection and ranging
US9195914B2 (en) * 2012-09-05 2015-11-24 Google Inc. Construction zone sign detection
US9097800B1 (en) 2012-10-11 2015-08-04 Google Inc. Solid object detection system using laser and radar sensor fusion
DE102012110595A1 (de) * 2012-11-06 2014-05-08 Conti Temic Microelectronic Gmbh Verfahren und Vorrichtung zur Erkennung von Verkehrszeichen für ein Fahrzeug
US9037403B2 (en) 2013-03-26 2015-05-19 Toyota Motor Engineering & Manufacturing North America, Inc. Intensity map-based localization with adaptive thresholding
US9062979B1 (en) 2013-07-08 2015-06-23 Google Inc. Pose estimation using long range features
DE102014204770A1 (de) * 2014-02-06 2015-08-06 Conti Temic Microelectronic Gmbh Fahrerassistenzsystem
US20160034769A1 (en) 2014-07-29 2016-02-04 Magna Electronics Inc. Vehicle vision system with traffic sign recognition
JP6322812B2 (ja) * 2014-08-21 2018-05-16 パナソニックIpマネジメント株式会社 情報管理装置、車両、および、情報管理方法
US9424475B1 (en) * 2014-09-17 2016-08-23 Google Inc. Construction object detection
KR20160062261A (ko) 2014-11-24 2016-06-02 현대엠엔소프트 주식회사 차량용 내비게이션 시스템 및 그 제어방법
JP6062473B2 (ja) * 2015-03-17 2017-01-18 本田技研工業株式会社 道路標識判断装置及び道路標識判断方法
JP6154839B2 (ja) * 2015-03-18 2017-06-28 本田技研工業株式会社 道路標識判断装置及び道路標識判断方法
CN105844257B (zh) * 2016-04-11 2019-03-01 吉林大学 基于机器视觉雾天行车错失道路标志牌的预警系统及方法
KR101900073B1 (ko) * 2018-01-15 2018-09-19 김홍진 정보 생성 기능을 갖는 반사체

Also Published As

Publication number Publication date
US20180120857A1 (en) 2018-05-03
GB201717747D0 (en) 2017-12-13
RU2017134098A (ru) 2019-04-03
MX2017013738A (es) 2018-09-28
CN108021862B (zh) 2023-04-18
US10528055B2 (en) 2020-01-07
GB2558716A (en) 2018-07-18
CN108021862A (zh) 2018-05-11

Similar Documents

Publication Publication Date Title
DE102017125493A1 (de) Verkehrszeichenerkennung
DE102019127058A1 (de) Fahrzeugwegplanung
DE102019122826A1 (de) Adaptives fahrzeuglernen
DE102015203016B4 (de) Verfahren und Vorrichtung zur optischen Selbstlokalisation eines Kraftfahrzeugs in einem Umfeld
DE112018006665T5 (de) Verfahren zum zugreifen auf ergänzende wahrnehmungsdaten von anderen fahrzeugen
DE102019101938A1 (de) Erstellung kognitiver Karten für Fahrzeuge
DE102020112314A1 (de) Verifizierung von fahrzeugbildern
DE102019122027A1 (de) Fahrzeugwegplanung
DE102017204404B3 (de) Verfahren und Vorhersagevorrichtung zum Vorhersagen eines Verhaltens eines Objekts in einer Umgebung eines Kraftfahrzeugs und Kraftfahrzeug
DE102019125303A1 (de) Reinigung des fahrzeugsensors
DE102019119162A1 (de) Posenschätzung
DE102017129196A1 (de) Nachfehlerbetrieb bei autonomen fahrzeugen
DE102019104217A1 (de) Bereitstellen von Informationsreicher Kartensemantik an Navigations-Metrik-Karten
DE102019121521A1 (de) Videostabilisierung
DE102014223363A1 (de) Verfahren und Vorrichtung zur Lokalisation eines Kraftfahrzeugs in einer ortsfesten Referenzkarte
DE102015116882A1 (de) Verbindungswahrscheinlichkeitsmodellbildung und Folgerung der Kreuzungsstruktur
DE112015002037T5 (de) Detailliertes Landkartenformat für autonomes Fahren
EP2830030B1 (de) Verfahren zur Ermittlung und Aktualisierung einer Belegungskarte in einem Parkareal
DE102016112492A1 (de) Minimierung inkorrekter Sensordatenassoziationen für autonome Fahrzeuge
DE102019106845A1 (de) Verschleierungsentfernung für Fahrzeugsensoren
DE102019126542A1 (de) Lokalisierung einer stationären kamera
DE102018100487A1 (de) Objektverfolgung durch unüberwachtes lernen
DE102017206433A1 (de) Automatikfahrtsteuerungssystem eines mobilen Objektes
DE102018106383A1 (de) Fahrzeugspurrichtungserkennung
DE102021124913A1 (de) Metrik-backpropagation für die beurteilung der leistung von untersystemen

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: BONSMANN - BONSMANN - FRANK PATENTANWAELTE, DE

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000