DE102016117123A1 - Fahrzeugradarwahrnehmung und -lokalisierung - Google Patents

Fahrzeugradarwahrnehmung und -lokalisierung Download PDF

Info

Publication number
DE102016117123A1
DE102016117123A1 DE102016117123.9A DE102016117123A DE102016117123A1 DE 102016117123 A1 DE102016117123 A1 DE 102016117123A1 DE 102016117123 A DE102016117123 A DE 102016117123A DE 102016117123 A1 DE102016117123 A1 DE 102016117123A1
Authority
DE
Germany
Prior art keywords
vehicle
data
location
information
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102016117123.9A
Other languages
English (en)
Inventor
Ashley Elizabeth Micks
Venkatapathi Raju Nallapa
Vidya Nariyambut murali
Scott Vincent Myers
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE102016117123A1 publication Critical patent/DE102016117123A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • G01C21/3415Dynamic re-routing, e.g. recalculating the route when the user deviates from calculated route or after detecting real-time traffic data or accidents
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/45Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/0284Relative positioning
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/0278Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Electromagnetism (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

Diese Offenbarung bezieht sich auf Verfahren, Systeme und Einrichtungen für autonom fahrende Fahrzeuge oder Fahrassistenzsysteme und bezieht sich insbesondere auf die Fahrzeugradarwahrnehmung und -lokalisierung. Das offenbarte Fahrzeugfahrsystem kann Speichermedien, ein Radarsystem, eine Standortkomponente und eine Fahrsteuerung umfassen. Die Speichermedien speichern eine Karte von Fahrbahnen. Das Radarsystem ist dazu ausgelegt, Wahrnehmungsinformationen aus einer Region in der Nähe eines Fahrzeugs zu erzeugen. Die Standortkomponente ist dazu ausgelegt, auf der Basis der Radarwahrnehmungsinformationen und anderer navigationsbezogener Daten einen Standort des Fahrzeugs zu bestimmen. Die Fahrsteuerung ist dazu ausgelegt, das Fahren des Fahrzeugs auf der Basis der Karte und des bestimmten Standorts zu steuern.

Description

  • TECHNISCHES GEBIET
  • Diese Offenbarung bezieht sich allgemein auf Verfahren, Systeme und Einrichtungen für autonom fahrende Fahrzeuge oder autonome Fahrassistenzsysteme und insbesondere auf die Fahrzeugradarwahrnehmung und -lokalisierung.
  • HINTERGRUND
  • Autonome Fahrzeuge und Fahrassistenzsysteme werden derzeit entwickelt und eingesetzt, um Sicherheit bereitzustellen, ein Maß der erforderlichen Benutzereingabe zu reduzieren oder die Benutzerbeteiligung vollständig zu eliminieren. Beispielsweise können einige Fahrassistenzsysteme, wie etwa Kollisionsvermeidungssysteme, das Fahren, Positionen und Geschwindigkeiten des Fahrzeugs und anderer Objekte überwachen, während ein Mensch fährt. Wenn das System detektiert, dass eine Kollision oder ein Aufprall bevorsteht, kann das Kollisionsvermeidungssystem eingreifen und eine Bremse betätigen, das Fahrzeug lenken oder andere Vermeidungs- oder Sicherheitsmanöver durchführen. Als weiteres Beispiel können autonome Fahrzeuge ein Fahrzeug mit geringer oder keiner Benutzereingabe fahren und navigieren. Aufgrund der mit dem Fahren verbundenen Gefahren und der Kosten von Fahrzeugen ist es jedoch extrem wichtig, dass autonome Fahrzeuge und Fahrassistenzsysteme sicher betrieben werden und in der Lage sind, auf Straßen genau zu navigieren, Objekte zu vermeiden und ihr Umfeld zu beobachten. Darüber hinaus können aktuelle autonome Fahrzeuge und Fahrassistenzsysteme Schwierigkeiten haben, aufgrund der sehr unterschiedlichen Gelände, Wetterbedingungen und anderen Umgebungen, in denen Fahrzeuge häufig betrieben werden, sicher oder korrekt betrieben zu werden. Daher müssen autonome Fahrzeuge unter widrigen Bedingungen sicher betrieben werden und die Umgebung auch dann so genau wie möglich wahrnehmen, wenn einige der Sensoren des Fahrzeugs ausfallen.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • Nicht einschränkende und nicht erschöpfende Implementierungen der vorliegenden Offenbarung werden mit Bezug auf die folgenden Figuren beschrieben, wobei sich gleiche Bezugszeichen in den verschiedenen Ansichten auf gleiche Teile beziehen, soweit nicht anders angegeben. Vorteile der vorliegenden Offenbarung werden mit Bezug auf die folgende Beschreibung und die beigefügten Zeichnungen besser verstanden, wobei:
  • 1 ein schematisches Blockdiagramm ist, das eine Implementierung eines Fahrzeugs darstellt, das ein automatisiertes Fahr-/Assistenzsystem umfasst;
  • 2 eine schematische Draufsicht ist, die eine Fahrbahn gemäß einer Ausführungsform darstellt;
  • 3 ein schematisches Blockdiagramm ist, das beispielhafte Komponenten einer Lokalisierungskomponente gemäß einer Implementierung darstellt, und
  • 4 ein schematisches Flussdiagramm ist, das ein Verfahren für die Wahrnehmung und Lokalisierung gemäß einer Implementierung für ein Straßenfahrzeug darstellt.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Unter Fahrbedingungen, wie etwa schneebedeckte Straßen ohne Gebäude oder andere Landmarken, haben Kameras und lichtlaserbetriebene Radarsysteme (LIDAR – Light Detection and Ranging) aufgrund des geringen visuellen Kontrasts und der starken Reflexion der Umgebung Schwierigkeiten. Wetterbedingungen, einschließlich dichter Nebel und Regen, können die Kamera- und die LIDAR-Datenerfassung erheblich einschränken. Des Weiteren kann die Reflexion von weit auf dem Boden verbreitetem Wasser sowohl für LIDAR- als auch für visuelle Systeme herausfordernd sein. Unter diesen Umständen haben Anmelder erkannt, dass die zuverlässigsten verfügbaren Daten Daten von der Funkdetektions- und Abstandsmessung (Radar – Radio Detection and Ranging), von Positionsbestimmungssystemen, wie etwa globale Positionsbestimmungssysteme (GPS – Global Positioning System), von digitalen Karten, wie etwa hochauflösende (HD)-Landkarten, von der Fahrhistorie sowie von der Fahrzeug-zu-Fahrzeug(V2V)- und der Fahrzeug-zu-Infrastruktur(V2X)-Kommunikation umfassen.
  • Auch wenn ein Fahrassistenzmerkmal oder autonome Fahrlösungen verschiedene Kombinationen von Sensoren (wie etwa LIDAR), Kamera(s) und Karten im Fahrzeugspeicher verwenden, sind diese Merkmale oder Lösungen aufgrund der Umgebungsbedingungen oder der Beschädigung möglicherweise nicht in der Lage, nützliche Informationen bereitzustellen. Radar ist auch unter diesen Bedingungen häufig in der Lage, nützliche Informationen bereitzustellen. Daher kombinieren einige hier genannte Ausführungsformen alle verfügbaren Radardaten mit möglichst vielen anderen Informationen, die das Fahrzeug über seine Umgebung erhalten kann, die nicht nur HD-Karten, sondern beispielsweise auch die Fahrhistorie und die V2X-Kommunikation umfassen.
  • Die vorliegende Offenbarung erörtert Systeme, Verfahren und Vorrichtungen zum Integrieren von Daten von Radarsensoren an einem Fahrzeug mit Daten von anderen Informationsquellen, wie etwa GPS, HD-Karten und Fahrhistorieinformationen, um ein Fahrzeug vollständiger und genauer auf einer Straße zu lokalisieren und relevante Teile der Umgebung, wie etwa Hindernisse, vollständiger und genauer wahrzunehmen. Informationen der Fahrzeug-zu-Fahrzeug- oder der Fahrzeug-zu-Infrastruktur(V2X)-Kommunikation können von diesen Wahrnehmungs- und Lokalisierungsalgorithmen auch berücksichtigt werden. Einige Ausführungsformen umfassen das Durchführen von Wahrnehmung und Lokalisierung zur Verwendung mit autonomen Navigations- und aktiven Sicherheits- oder Fahrerassistenzmerkmalen. In einer Ausführungsform werden Informationen von vorherigen Fahrten im Speicher des Fahrzeugs gespeichert, einschließlich Routengeometrie und Verhaltensmerkmale von vorherigen Touren entlang desselben Wegs. In einer Ausführungsform detaillieren HD-Karten im Speicher des Fahrzeugs Informationen über die Positionen von Straßen, Spurmarkierungen, Verkehrszeichen oder anderen Standorten in Form von GPS-Koordinaten. In einer Ausführungsform geben andere Fahrzeuge und die Straßeninfrastruktur drahtlos Informationen von ihren eigenen Sensoren weiter, um die Wahrnehmung an Bord des Fahrzeugs zu ergänzen. In einer Ausführungsform werden Informationen vom GPS an Bord des Fahrzeugs in Kombination mit Messwerten von seinen Radarsensoren und allen über die V2V- oder V2X-Kommunikation erlangten Informationen verwendet, um einen Standort des Fahrzeugs auf der HD-Karte und relativ zu Fahrhistoriedaten zu bestimmen (das Fahrzeug zu lokalisieren). In einer Ausführungsform kann das Fahrzeug auf der Basis des bestimmten Standorts bzw. der bestimmten Standorte autonom navigieren oder manövrieren, vorausgesetzt, es kann ein ausreichendes Vertrauen in seine Wahrnehmung des Umfelds erreicht werden. Ein potenzieller Vorteil des Verwendens eines Radarsystems, um Wahrnehmungsinformationen für ein Fahrzeug bereitzustellen, besteht darin, dass nützliche Daten selbst unter sehr widrigen Wetterbedingungen erfasst werden können.
  • In der folgenden Offenbarung wird auf die beigefügten Zeichnungen Bezug genommen, die einen Teil hiervon bilden und in denen in Form von Darstellungen spezielle Implementierungen gezeigt werden, in denen die Offenbarung umgesetzt werden kann. Es versteht sich, dass andere Implementierungen genutzt und strukturelle Änderungen gemacht werden können, ohne vom Schutzbereich der vorliegenden Offenbarung abzuweichen. Bezugnahmen in der Beschreibung auf „eine Ausführungsform”, „einer Ausführungsform”, „Ausführungsbeispiel” usw. zeigen an, dass die beschriebene Ausführungsform ein bestimmtes Merkmal, eine bestimmte Struktur oder eine bestimmte Eigenschaft umfassen kann, aber nicht jede Ausführungsform notwendigerweise das bestimmte Merkmal, die bestimmte Struktur oder die bestimmte Eigenschaft umfasst. Außerdem beziehen sich solche Wendungen nicht notwendigerweise auf dieselbe Ausführungsform. Ferner wird, wenn ein bestimmtes Merkmal, eine bestimmte Struktur oder eine bestimmte Eigenschaft in Verbindung mit einer Ausführungsform beschrieben wird, davon ausgegangen, dass es einem Fachmann bekannt ist, dass ein solches Merkmal, eine solche Struktur oder eine solche Eigenschaft in Verbindung mit anderen Ausführungsformen beeinträchtigt wird, gleich ob dies explizit beschrieben wird oder nicht.
  • Hier offenbarte Implementierungen der Systeme, Vorrichtungen und Verfahren können einen Sonderzweck- oder Allzweckcomputer einschließlich Computerhardware, wie beispielsweise einen oder mehrere Prozessoren und Systemspeicher, umfassen oder nutzen, wie unten ausführlicher erörtert. Implementierungen im Schutzbereich der vorliegenden Offenbarung können auch physische oder andere computerlesbare Medien zum Transportieren oder Speichern von computerausführbaren Anweisungen und/oder Datenstrukturen umfassen. Solche computerlesbaren Medien können alle Medien sein, auf die mit einem Allzweck- oder Sonderzweckcomputersystem zugegriffen werden kann. Computerlesbare Medien, die computerausführbare Anweisungen speichern, sind Computerspeichermedien (-vorrichtungen). Computerlesbare Medien, die computerausführbare Anweisungen transportieren, sind Übertragungsmedien. Als Beispiel und ohne Einschränkung können Implementierungen der Offenbarung mindestens zwei deutlich verschiedene Arten von computerlesbaren Medien umfassen: Computerspeichermedien (-vorrichtungen) und Übertragungsmedien.
  • Computerspeichermedien (-vorrichtungen) umfassen RAM, ROM, EEPROM, CD-ROM, Solid-State-Drives (SSDs) (z. B. auf RAM-Basis), Flash-Speicher, Phasenübergangsspeicher (PCM – Phase-Change Memory), andere Arten von Speicher, andere optische Plattenspeicher, Magnetplattenspeicher oder andere Magnetspeichervorrichtungen oder ein beliebiges anderes Medium, das verwendet werden kann, um gewünschte Programmcodemittel in Form von computerausführbaren Anweisungen oder Datenstrukturen zu speichern, und auf das mit einem Allzweck- oder einem Sonderzweckcomputer zugegriffen werden kann.
  • Eine hier offenbarte Implementierung der Vorrichtungen, Systeme und Verfahren kann über ein Computernetzwerk kommunizieren. Ein „Netzwerk” ist definiert als eine oder mehrere Datenverbindungen, die den Transport von elektronischen Daten zwischen Datenverarbeitungssystemen und/oder Modulen und/oder anderen elektronischen Vorrichtungen ermöglichen. Wenn Informationen über ein Netzwerk oder eine andere Kommunikationsverbindung (entweder fest verdrahtet, drahtlos oder eine Kombination aus fest verdrahtet oder drahtlos) zu einem Computer übertragen werden, sieht der Computer die Verbindung ordnungsgemäß als Übertragungsmedium. Übertragungsmedien können ein Netzwerk und/oder Datenverbindungen umfassen, die verwendet werden können, um gewünschte Programmcodemittel in Form von computerausführbaren Anweisungen oder Datenstrukturen zu transportieren, und auf die mit einem Allzweck- oder Sonderzweckcomputer zugegriffen werden kann. Kombinationen des Vorgenannten sollten ebenfalls in den Schutzbereich von computerlesbaren Medien eingeschlossen werden.
  • Computerausführbare Anweisungen umfassen beispielsweise Anweisungen und Daten, die, wenn sie an einem Prozessor ausgeführt werden, bewirken, dass ein Allzweckcomputer, ein Sonderzweckcomputer oder eine Sonderzweckverarbeitungsvorrichtung eine bestimmte Funktion oder Gruppe von Funktionen durchführt. Die computerausführbaren Anweisungen können beispielsweise Binärdateien, Zwischenformatanweisungen, wie etwa Assemblersprache, oder sogar Quellcode sein. Obwohl der Gegenstand in einer für strukturelle Merkmale und/oder methodologische Handlungen spezifischen Sprache beschrieben wurde, versteht es sich, dass der in den beiliegenden Ansprüchen definierte Gegenstand nicht notwendigerweise auf die oben beschriebenen Merkmale oder Handlungen beschränkt ist. Vielmehr werden die beschriebenen Merkmale und Handlungen als beispielhafte Formen des Implementierens der Ansprüche offenbart.
  • Für Fachleute versteht es sich, dass die Offenbarung in Netzwerkdatenverarbeitungsumgebungen mit vielen Arten von Computersystemauslegungen, einschließlich Personal Computer, Desktop-Computer, Laptop-Computer, Nachrichtenprozessoren, handgeführten Vorrichtungen, Multiprozessorsystemen, mikroprozessorbasierter oder programmierbarer Verbraucherelektronik, Netzwerk-PCs, Minicomputern, Mainframe-Computern, Mobiltelefonen, PDAs, Tablets, Pagern, Routern, Switches, verschiedenen Speichervorrichtungen und Ähnlichem, umgesetzt werden kann. Die Offenbarung kann auch in verteilten Systemumgebungen umgesetzt werden, wo sowohl lokale als auch ferne Computersysteme, die über ein Netzwerk (entweder über fest verdrahtete Datenverbindungen, drahtlose Datenverbindungen oder eine Kombination von fest verdrahteten und drahtlosen Datenverbindungen) verbunden sind, Aufgaben durchführen. In einer verteilten Systemumgebung können sich Programmmodule sowohl in lokalen als auch in fernen Speichervorrichtungen befinden.
  • Ferner können, soweit zutreffend, hier beschriebene Funktionen in Hardware, Software, Firmware, digitalen Komponenten und/oder analogen Komponenten durchgeführt werden. Beispielsweise können eine oder mehrere anwendungsspezifische integrierte Schaltungen (ASICs) programmiert werden, um die hier beschriebenen Systeme und/oder Prozeduren auszuführen. In der gesamten folgenden Beschreibung und in den Ansprüchen werden gewisse Begriffe verwendet, die bestimmte Systemkomponenten bezeichnen. Für den Fachmann versteht es sich, dass Komponenten mit verschiedenen Namen bezeichnet werden können. Dieses Dokument beabsichtigt nicht, zwischen Komponenten zu differenzieren, die sich in Bezug auf den Namen, nicht aber auf die Funktion unterscheiden.
  • Jetzt auf die Figuren Bezug nehmend stellt 1 ein Fahrzeug 100 dar, das ein automatisiertes Fahr-/Assistenzsystem 102 umfasst. Das automatisierte Fahr-/Assistenzsystem 102 kann verwendet werden, um den Betrieb des Fahrzeugs 100 zu automatisieren oder zu steuern. Beispielsweise kann das automatisierte Fahr-/Assistenzsystem 102 Bremsen, Lenkung, Beschleunigung, Leuchten, Alarme, Fahrerbenachrichtigungen, Radio und/oder alle sonstigen Hilfssysteme des Fahrzeugs 100 steuern. Das automatisierte Fahr-/Assistenzsystem 102 kann mehrere Systeme und Vorrichtungen umfassen, einschließlich Aktuatoren, wie etwa Elektromotoren, um Bremsen, Lenkung oder Ähnliches zu steuern. Das automatisierte Fahr-/Assistenzsystem 102 umfasst eine Lokalisierungskomponente 104, die verwendet wird, um einen Standort des Fahrzeugs 100 auf der Basis von zu der Zeit verfügbaren Daten oder Sensoren zu bestimmen. Das Fahrzeug 100 umfasst auch ein oder mehrere Radarsysteme 106, ein oder mehrere LIDAR-Systeme 108, ein oder mehrere Kamerasysteme 110, ein GPS 112, einen Datenspeicher 114 und einen Sendeempfänger 116. Es versteht sich, dass die Ausführungsform in 1 nur als Beispiel dient. Andere Ausführungsformen können weniger oder zusätzliche Komponenten umfassen, ohne vom Schutzbereich der Offenbarung abzuweichen. Zusätzlich können die dargestellten Komponenten unter anderem kombiniert oder in anderen Komponenten enthalten sein. Beispielsweise kann die Lokalisierungskomponente 104 vom automatisierten Fahr-/Assistenzsystem 102 getrennt und der Datenspeicher 114 als Teil des automatisierten Fahr-/Assistenzsystems 102 und/oder Teil des Lokalisierungssystems 104 enthalten sein.
  • Ein Radarsystem 106 kann jedes allgemein im Fachgebiet bekannte Radarsystem umfassen. Radarsystembetrieb und -leistung werden allgemein gut verstanden. Im Allgemeinen wird ein Radarsystem 106 durch Senden von Funksignalen und Detektieren von Reflexionen von Objekten betrieben. In Grundanwendungen kann Radar verwendet werden, um physische Objekte, wie etwa andere Fahrzeuge, Landschaften (wie etwa Bäume, Klippen, Felsen, Hügel oder Ähnliches), Straßenränder, Zeichen, Gebäude oder andere Objekte zu detektieren. Das Radarsystem 106 kann die reflektierten Funkwellen verwenden, um eine Größe, eine Form, einen Abstand, eine Oberflächentextur oder andere Informationen über ein physisches Objekt oder Material zu bestimmen. Beispielsweise kann das Radarsystem 106 ein Gebiet abtasten, um Daten oder Objekte innerhalb eines spezifischen Bereichs und Sichtwinkels des Radarsystems 106 zu erhalten. In einer Ausführungsform ist das Radarsystem 106 dazu ausgelegt, Wahrnehmungsinformationen aus einer Region in der Nähe des Fahrzeugs, wie etwa in einer oder mehreren Regionen nahe dem Fahrzeug 100 oder dieses umgebend, zu erzeugen. Beispielsweise kann das Radarsystem 106 Daten über Regionen des Boden- oder des vertikalen Gebiets, das direkt an das Fahrzeug 100 angrenzt oder sich in dessen Nähe befindet, erhalten. Das Radarsystem 106 kann eines der weit verbreiteten handelsüblichen Radarsysteme umfassen. In einer Ausführungsform kann das Radarsystem 106 dem automatisierten Fahr-/Assistenzsystem 102 zur Referenz oder Verarbeitung Wahrnehmungsdaten bereitstellen, einschließlich einer zweidimensionalen oder dreidimensionalen Karte oder eines zweidimensionalen oder dreidimensionalen Modells. Wie es sich für einen Fachmann angesichts der vorliegenden Offenbarung versteht, können einige handelsübliche Radarsysteme 106 unter einigen der schwersten und widrigsten Wetterbedingungen mit geringer oder keiner Verringerung der Qualität oder Genauigkeit der Wahrnehmungsdaten betrieben werden. Beispielsweise haben nasse Oberflächen, Schnee und Nebel sehr geringe Auswirkung auf eine Fähigkeit des Radarsystems 106, Bereiche bis zu Objekten zu lokalisieren und zu detektieren.
  • Ein LIDAR-System 108 kann jedes allgemein im Fachgebiet bekannte LIDAR-System umfassen. Prinzipien von Betrieb und Leistung von LIDAR-Systemen werden allgemein gut verstanden. Im Allgemeinen wird das LIDAR-System 108 durch Emittieren von Lasern von sichtbarer Wellenlänge oder Infrarotwellenlänge und Detektieren von Lichtreflexionen von Objekten betrieben. In Grundanwendungen können Laser verwendet werden, um physische Objekte, wie etwa andere Fahrzeuge, Landschaften (wie etwa Bäume, Klippen, Felsen, Hügel oder Ähnliches), Straßenränder, Zeichen, Gebäude oder andere Objekte zu detektieren. Das LIDAR-System 108 kann das reflektierte Laserlicht verwenden, um eine Größe, eine Form, einen Abstand, eine Oberflächentextur oder andere Informationen über ein physisches Objekt oder Material zu bestimmen. Beispielsweise kann das LIDAR-System 108 ein Gebiet abtasten, um Daten oder Objekte innerhalb eines spezifischen Bereichs und Sichtwinkels des LIDAR-Systems 108 zu erhalten. Beispielsweise kann das LIDAR-System 108 Daten über Regionen des Boden- oder des vertikalen Gebiets, das direkt an das Fahrzeug 100 angrenzt oder sich in dessen Nähe befindet, erhalten. Das LIDAR-System 108 kann eines der weit verbreiteten handelsüblichen LIDAR-Systeme umfassen. In einer Ausführungsform kann das LIDAR-System 108 Wahrnehmungsdaten bereitstellen, einschließlich eines zweidimensionalen oder dreidimensionalen Modells oder einer zweidimensionalen oder dreidimensionalen Karte von detektierten Objekten oder Oberflächen.
  • Obwohl LIDAR verwendet werden kann, um überaus genaue und überaus detaillierte Informationen über umliegende Objekte und Oberflächen zu erhalten, kann sich die Qualität der von LIDAR-Systemen 108 erhaltenen Daten in nassen Situationen beträchtlich verschlechtern. Beispielsweise reflektieren viele Straßenoberflächen einen beträchtlichen Teil von Laserlicht zu einem LIDAR-System 108 zurück, wenn sie trocken sind. Wenn die Oberfläche nass wird, kann der Laser jedoch reflektiert werden, aber sich weiter vom LIDAR-System 108 weg bewegen. Daher können sich LIDAR-Daten in Situationen mit starkem Regen oder vielen Pfützen beträchtlich verschlechtern und es extrem schwierig oder unmöglich machen, Standorte von Straßen, des Fahrzeugs oder anderen Fahrzeugen mit ausreichender Gewissheit genau zu bestimmen. LIDAR-Systemdaten können sich auch in Situationen mit starkem Regen oder Schneefall beträchtlich verschlechtern, weil das Laserlicht von Schneeflocken oder Regentropfen reflektiert werden kann. Daher können die zurückgegebenen Daten ein beträchtliches Maß „Rauschen” haben, das Objekte von Interesse, wie etwa Fahrzeuge, Bäume, Bordsteine, die Fahrbahn, Personen oder Ähnliches, verdecken kann. In diesen Situationen kann Radar weit überlegen und verlässlich sein.
  • Ein Kamerasystem 110 kann eine oder mehrere Kameras umfassen, wie etwa Kameras sichtbarer Wellenlänge oder Infrarotkameras. Das Kamerasystem 110 kann eine Videoaufnahme oder periodische Bilder bereitstellen, die für die Objektdetektion, Straßenidentifikation und -positionsbestimmung oder andere Detektion oder Positionsbestimmung verarbeitet werden können. In einer Ausführungsform kann das Kamerasystem 110 zwei oder mehr Kameras umfassen, die verwendet werden können, um die Abstandsmessung (z. B. einen Abstand detektieren) für Objekte im Sichtbereich der zwei oder mehr Kameras bereitzustellen.
  • Obwohl Kameras sehr gute und detaillierte Daten für ein automatisiertes Fahr-/Assistenzsystem 102 bereitstellen können, kann sich die Qualität der Daten in der Dunkelheit oder bei gewissen wetterbezogenen Bedingungen, einschließlich Nebel, Regen oder Schnee, beträchtlich verschlechtern. Dies gilt speziell für automatisierte Fahr-/Assistenzsysteme 102, die eine Video- oder Bildaufnahme verarbeiten, um beim Fahren zu unterstützen, da jedes von den wetterbezogenen Bedingungen, einschließlich Nebel, Regen oder Schnee, verursachte „Rauschen” oder Hindernis es für automatisierte Algorithmen sehr schwierig macht, Objekte zu identifizieren oder zu detektieren oder Abstände zu bestimmen.
  • Das GPS-System 112 ist eine Ausführungsform eines Positionsbestimmungssystems, das auf der Basis von Satelliten- oder Funkturmsignalen einen geografischen Standort des Fahrzeugs 100 bereitstellen kann. GPS-Systeme 112 sind auf dem Fachgebiet allgemein bekannt und weit verbreitet. Obwohl GPS-Systeme 112 sehr genaue Positionsbestimmungsinformationen bereitstellen können, stellen GPS-Systeme 112 allgemein wenige oder keine Informationen über Abstände zwischen dem Fahrzeug und anderen Objekten bereit. Vielmehr stellen sie einfach einen Standort bereit, der dann mit anderen Daten, wie etwa Karten, verglichen werden kann, um Abstände zu anderen Objekten, Straßen oder Standorten von Interesse zu bestimmen. Obwohl GPS-Systeme 112 der Verschlechterung aufgrund von widrigen Wetterbedingungen unterliegen können, können in einigen Situationen, in denen Kameradaten oder LIDAR-Daten nicht verfügbar oder unter einer gewünschten Qualität sind, dennoch GPS-Daten von hoher Qualität oder Genauigkeit erhalten werden.
  • Der Datenspeicher 114 speichert Kartendaten, eine Fahrhistorie und andere Daten, die andere Navigationsdaten, Einstellungen oder Betriebsanweisungen für das automatisierte Fahr-/Assistenzsystem 102 umfassen können. Die Kartendaten können Standortdaten, wie etwa GPS-Standortdaten, für Straßen umfassen. Beispielsweise können die Standortdaten für Straßen Standortdaten für bestimmte Spuren, wie etwa Spurrichtung, zusammenlaufende Spuren, Autobahnspuren, Ausfahrtspuren oder jede andere Spur oder Unterteilung einer Straße umfassen. Die Standortdaten für Straßen können auch Daten bezüglich der Ränder von Straßen, Details über Spurtyp (z. B. Pendlerspur, Überholspur), Details über Spurrichtung oder andere Details umfassen. In einer Ausführungsform umfassen die Kartendaten Standortdaten über eine oder mehrere Strukturen oder Objekte auf oder in der Nähe von Straßen. Beispielsweise können die Kartendaten Daten bezüglich GPS-Zeichenstandort, Brückenstandort, Gebäude- oder Strukturstandort oder Ähnliches umfassen. In einer Ausführungsform können die Kartendaten präzise Standortdaten mit einer Genauigkeit von einigen Metern oder mit einer Genauigkeit von unter einem Meter umfassen. Die Kartendaten können auch Standortdaten für Wege, unbefestigte Straßen oder andere Straßen und Pfade umfassen, die von einem Landfahrzeug befahren werden können.
  • Die Fahrhistorie kann Standortdaten für vergangene vom Fahrzeug 100 unternommene Touren umfassen. Beispielsweise kann die Fahrhistorie GPS-Standortdaten für die vorher unternommenen Touren oder befahrenen Wege umfassen. Als weiteres Beispiel kann die Fahrhistorie Abstands- oder relative Standortdaten mit Bezug auf Spurlinien, Zeichen, Straßenrandlinien oder andere Objekte oder Merkmale auf den oder in der Nähe der Straßen umfassen. Die Abstands- oder relativen Standortdaten können auf der Basis von GPS-Daten, Radardaten, LIDAR-Daten, Kameradaten oder anderen Sensordaten, die auf vorher oder früher vom Fahrzeug 100 unternommenen Touren gesammelt wurden, bestimmt werden. Diese Fahrhistoriedaten können vom automatisierten Fahr-/Assistenzsystem 102 zur künftigen Verwendung, falls/wenn Sensordaten ausfallen, protokolliert werden. Beispielsweise kann das automatisierte Fahr-/Assistenzsystem 102 durch Speichern detaillierter Spurstandort-, Zeichenstandort- oder anderer Daten in der Lage sein, nur auf der Basis von Radardaten (oder einer Kombination von Radar- und beliebigen anderen verfügbaren Standort-/Navigationsdaten) einen extrem präzisen Standort zu bestimmen. In einer Ausführungsform ist das automatisierte Fahr-/Assistenzsystem 102 dazu ausgelegt, für und während aller vom Fahrzeug 100 unternommenen Touren oder Fahrten Fahrdaten im Datenspeicher 114 zu protokollieren.
  • Der Sendeempfänger 116 ist dazu ausgelegt, von einer oder mehreren anderen Daten- oder Signalquellen Signale zu empfangen. Der Sendeempfänger 116 kann ein oder mehrere Funkgeräte umfassen, die dazu ausgelegt sind, gemäß einer Vielzahl von Kommunikationsnormen und/oder unter Verwendung einer Vielzahl verschiedener Frequenzen zu kommunizieren. Beispielsweise kann der Sendeempfänger 116 Signale von anderen Fahrzeugen, wie etwa von Fahrzeug 118, empfangen. Das Empfangen von Signalen von einem anderen Fahrzeug wird hier als Fahrzeug-zu-Fahrzeug(V2V)-Kommunikation bezeichnet. In einer Ausführungsform kann der Sendeempfänger 116 auch verwendet werden, um Informationen zu anderen Fahrzeugen, wie etwa Fahrzeug 118, zu übertragen, um sie beim Lokalisieren des Fahrzeugs 100 oder von anderen Fahrzeugen oder Objekten, potenziell zu unterstützen. Während der V2V-Kommunikation kann der Sendeempfänger 116 Informationen von anderen Fahrzeugen über deren Standorte, anderen Verkehr, Unfälle, Straßenbedingungen oder andere Details empfangen, die das Fahrzeug 100 und/oder das automatisierte Fahr-/Assistenzsystem 102 beim genauen oder sicheren Fahren unterstützen können.
  • Der Sendeempfänger 116 kann Signale von anderen Signalquellen empfangen, die sich an festen Standorten befinden. Infrastruktursendeempfänger 120 kann sich an einem spezifischen geografischen Standort befinden und seinen spezifischen geografischen Standort mit einem Zeitstempel senden. Daher kann das automatisierte Fahr-/Assistenzsystem 102 in der Lage sein, einen Abstand vom Infrastruktursendeempfänger 120 auf der Basis des Zeitstempels zu bestimmen, und dann seinen Standort auf der Basis des Standorts des Infrastruktursendeempfängers 120 bestimmen. Beispielsweise kann der Sendeempfänger 116 Signale von Infrastruktursendeempfängern 120 empfangen, die in die Straßen- oder Transportinfrastruktur eingebaut sind. In einer Ausführungsform können Straßen entlang Straßen platzierte Sender umfassen, die vom Fahrzeug 100 verwendet werden können, um in Bezug auf Straßen oder andere geografische Standorte präzise Standorte zu erhalten. Ähnlich können Magnete oder andere Standortmechanismen entlang oder in den Straßen platziert sein, die vom Sendeempfänger 116 oder anderen Vorrichtungen erkannt werden können. In einer Ausführungsform kann der Sendeempfänger 116 Signale von Funk- oder Mobiltelefontürmen empfangen. Beispielsweise kann der Sendeempfänger 116 ein Funkgerät umfassen, das in der Lage ist, Standortdaten zu lizenzierten Spektren zu empfangen und zu verarbeiten, auch wenn er nicht dazu fähig ist, Informationen zu kommunizieren oder Sprache oder andere Arten von Datenkommunikationen zu decodieren. Beispielsweise stellen viele Mobilfunknetzwerke Standortdienste bereit, die vom automatisierten Fahr-/Assistenzsystem 102 verwendet werden können. In einer Ausführungsform wird das Empfangen oder Senden von Standortdaten von Vorrichtungen oder Türmen an festen Standorten als Fahrzeug-zu-Infrastruktur(V2X)-Kommunikation bezeichnet. In einer Ausführungsform kann der Begriff V2X-Kommunikation auch die V2V-Kommunikation einschließen.
  • In einer Ausführungsform kann der Sendeempfänger 116 Standortdaten über ein Mobilfunknetzwerk oder eine Zellenverbindung senden und empfangen. Beispielsweise kann der Sendeempfänger 116 aktualisierte Standortdaten für einen spezifischen Bereich empfangen, wenn das Fahrzeug 100 sich entlang einer Fahrbahn bewegt. Ähnlich kann der Sendeempfänger 116 historische Fahrdaten für das Fahrzeug 100 oder andere Fahrzeuge, die an dem Standort entlang einer Straße gefahren sind, empfangen. Beispielsweise kann der Sendeempfänger 116 Daten empfangen, die Standorte von Zeichen oder Objekten anzeigen, die mit einem Radarsystem 106 detektierbar sind. Wenn der Sendeempfänger 116 in der Lage ist, Signale von drei oder mehr Infrastruktursendeempfängern 120 zu empfangen, kann das automatisierte Fahr-/Assistenzsystem 102 in der Lage sein, seinen geografischen Standort zu triangulieren.
  • Jetzt Bezug nehmend auf 2 ist eine schematische Draufsicht einer Fahrbahn 200 dargestellt. Die Fahrbahn 200 umfasst mehrere Spuren 202, die mit Linien markiert sind, wobei die Fahrzeuge 100 und 118 auf der Fahrbahn 200 fahren. An einer Kreuzung der Fahrbahn 200 befinden sich Verkehrszeichen 204. In der Nähe oder auf der Fahrbahn befinden sich mehrere Infrastruktursender oder -sendeempfänger 120. Das Fahrzeug 100 kann in der Lage sein, auf der Basis der Radardetektion der Zeichen 204, der Sendeempfängerdetektion der Infrastruktursender oder -sendeempfänger 120 sowie von Signalen, die vom Fahrzeug 118 empfangen werden, und/oder von im Datenspeicher 114 gespeicherten Daten einen genauen Standort auf der Fahrbahn zu bestimmen. Daher kann, auch wenn raues Wetter die Datenqualität der von Kamerasystemen 110 oder LIDAR-Systemen 108 gesendeten Informationen beeinträchtigt, das automatisierte Fahr-/Assistenzsystem 102 in der Lage sein, auf der Basis des Radarsystems 106 und allen anderen verfügbaren navigationsbezogenen Daten den Standort des Fahrzeugs 100 genau zu bestimmen.
  • 3 ist ein Blockdiagramm, das beispielhafte Komponenten der Lokalisierungskomponente 104 darstellt. In der abgebildeten Ausführungsform umfasst die Lokalisierungskomponente 104 einen Prozessor 302, einen Speicher 304, eine Standortkomponente 306, eine Fahrsteuerung 308, eine Datenqualitätskomponente 310 und eine V2X-Komponente 312. Die Komponenten 302312 sind nur in Form von Darstellungen angegeben und möglicherweise nicht in allen Ausführungsformen enthalten. Tatsächlich können einige Ausführungsformen nur eine oder jede Kombination von zwei oder mehr der Komponenten 302312 umfassen.
  • Der Prozessor 302 kann jede Art von Allzweck- oder Sonderzweckprozessor zum Ausführen von Programmcode oder Anweisungen umfassen. Beispielsweise kann der Prozessor 302 verwendet werden, um Anweisungen entsprechend einer oder mehrerer der anderen Komponenten 304312 auszuführen. Der Speicher 304 kann ein computerlesbares Medium umfassen, das Anweisungen entsprechend den anderen Komponenten 306312 speichert. Beispielsweise kann der Speicher 304 die anderen Komponenten 306312 als Komponenten eines Computerprogramms speichern. Der Speicher 304 kann dem Datenspeicher 114 von 1 entsprechen. In einer Ausführungsform ist der Speicher 304 dazu ausgelegt, Daten, wie etwa Kartendaten, Programmcode, Fahrhistorie oder andere Daten zu speichern. Die Kartendaten können eine Karte von einer oder mehreren Fahrbahnen oder Fahrwegen umfassen. In einer Ausführungsform umfasst die Karte Informationen über Standorte des Objekts oder der Struktur in Bezug auf die Straße oder den Fahrweg.
  • Die Standortkomponente 306 ist dazu ausgelegt, einen Standort eines entsprechenden Fahrzeugs (wie etwa das Fahrzeug 100 von 1) auf der Basis von Radarwahrnehmungsinformationen und, soweit zutreffend, anderen navigationsbezogenen Daten auf einer Karte zu bestimmen. In einer Ausführungsform empfängt die Standortkomponente die Wahrnehmungsinformationen von einem Radarsystem 106 für eine Bodenoberfläche und/oder für Objekte in einer Region in der Nähe des Fahrzeugs 100. In einer Ausführungsform umfassen die anderen navigationsbezogenen Daten von einem Positionsbestimmungssystem bestimmte Standortinformationen. In einer Ausführungsform bestimmt die Standortkomponente 306 den Standort des Fahrzeugs 100 auf der Basis der Radarwahrnehmungsinformationen und Daten von einem Satellitenpositionsbestimmungssystem. In einer Ausführungsform bestimmt die Standortkomponente 306 den Standort des Fahrzeugs 100 auf der Basis der Informationen vom Satellitenpositionsbestimmungssystem und auf der Basis eines Standorts eines Objekts oder einer Struktur, der von den Wahrnehmungsinformationen vom Radarsystem 106 detektiert wurde, wobei das Objekt oder die Struktur auf der Karte identifiziert wird. Beispielsweise kann die Karte einen Standort des Objekts oder der Struktur anzeigen und die Standortkomponente 306 kann bestimmen, wo der Abstand vom Objekt oder von der Struktur sich innerhalb einer Fehlerregion von GPS-Daten schneidet.
  • In einer Ausführungsform umfassen die anderen navigationsbezogenen Daten Standortinformationen, die auf der Basis einer V2V-Kommunikation und/oder einer V2X-Kommunikation bestimmt werden. Beispielsweise kann die Standortkomponente 306 Standort- oder Wahrnehmungsinformationen von einem Infrastruktursystem, wie etwa vom Infrastruktursendeempfänger 120, oder einem anderen Fahrzeug, wie etwa vom Fahrzeug 118, empfangen und den Standort des Fahrzeugs 100 auf der Basis der Standort- oder Wahrnehmungsinformationen vom Infrastruktursystem oder vom anderen Fahrzeug bestimmen. In einer Ausführungsform umfassen die anderen navigationsbezogenen Daten Tourdaten von einer oder mehreren vorherigen vom Fahrzeug 100 unternommenen Touren. In einer Ausführungsform kann die Standortkomponente 304 auf der Basis von Radardaten und einer Kombination von LIDAR-Daten, Kamerabilddaten, V2V-Daten, V2X-Daten, Kartendaten oder anderen hier erörterten Daten einen Standort des Fahrzeugs 100 oder eines anderen Objekts bestimmen.
  • In einer Ausführungsform empfängt die Standortkomponente 304 die Wahrnehmungsinformationen vom Radarsystem 106, vom LIDAR-System 108, vom Kamerasystem 110, von GPS 112 oder vom Infrastruktursystem, wie etwa vom Infrastruktursendeempfänger 120, oder von einem anderen Fahrzeug, wie etwa vom Fahrzeug 118, oder von anderen Sensoren. Die Radardaten und die Daten von verschiedenen Sensoren können kombiniert und/oder verarbeitet werden, um den aktuellen Standort des Fahrzeugs 100 unter Verwendung von Radardetektionen, bei denen es sich um hochdichte oder andere Radardetektionen handeln kann, bei Lokalisierungsverfahren, analog der Verwendung von LIDAR-Punktwolken für die Lokalisierung, zu bestimmen, Die Live-Radardetektionen können mit Karten und anderen im Speicher des Fahrzeugs 100 verfügbaren Daten verglichen werden, um den aktuellen Standort des Fahrzeugs 100 zu bestimmen. In einer Ausführungsform können die Radardaten und die Daten von verschiedenen Sensoren kombiniert und/oder verarbeitet werden, um den aktuellen Standort des Fahrzeugs 100 durch Verfolgen der Radardetektionen über die Zeit und Vergleichen dieser Detektionen mit GPS-Daten über die Zeit zu bestimmen, sodass eine GPS-Abweichung während der Fahrt korrigiert werden kann.
  • Die Fahrsteuerungskomponente 308 dient dem Steuern des Fahrens des Fahrzeugs 100 auf der Basis der Karte und des bestimmten Standorts. In einer Ausführungsform kann die Fahrsteuerungskomponente 308 ein vom Fahrzeug 100 durchzuführendes Fahrmanöver bestimmen und Steuersignale für ein oder mehrere Aktuatoren oder Systeme bereitstellen, um die Lenkung, die Bremsen oder jedes andere System des Fahrzeugs 100 zu steuern. In einer Ausführungsform kann die Fahrsteuerungskomponente 308 das Fahren des Fahrzeugs 100 steuern, indem sie bewirkt, dass das Fahrzeug 100 auf der Basis des bestimmten Standorts auf der Karte ein Fahrmanöver durchführt. In einer Ausführungsform kann die Fahrsteuerungskomponente 308 das Fahren des Fahrzeugs 100 steuern, indem es die Position des Fahrzeugs 100 einem autonomen Fahrsystem, wie etwa dem automatisierten Fahr-/Assistenzsystem 102, des Fahrzeugs 100 bereitstellt, das dann auf der Basis der Position Fahrmanöver oder Fahren durchführen kann.
  • Die Datenqualitätskomponente 310 ist dazu ausgelegt zu bestimmen, dass eine oder mehr Sensoreinheiten keine verwendbaren Daten bereitstellen oder beschädigt sind. Beispielsweise kann die Datenqualitätskomponente 310 bestimmen, dass das LIDAR-System 108, das Kamerasystem 110 oder eine andere Sensor- oder Dateneingabe keine verwendbaren Daten bereitstellt. Beispielsweise kann die Datenqualitätskomponente 310 bestimmen, dass ein Sensor beschädigt oder die Datenqualität unter einen Schwellenwert abgefallen ist. In einer Ausführungsform kann die Datenqualitätskomponente 310 bestimmen, dass die LIDAR-Daten oder die Kameradaten auf der Basis eines Maßes des Rauschens in den Daten oder auf der Basis einer geringen Licht- oder geringen Laserreflexion nicht verwendbar sind. In einer Ausführungsform kann die Datenqualitätskomponente 310 bestimmen, dass ein oder mehr Sensoren auf der Basis eines Signals von dem einen oder mehr Sensoren nicht betrieben werden, was explizit anzeigt, dass die Sensoren nicht funktionieren. In einer Ausführungsform ist die Datenqualitätskomponente 310 dazu ausgelegt zu bestimmen, dass auf der Basis der aktuellen Wetterbedingungen und/oder des Bestimmens, dass die eine oder mehr Sensoreinheiten keine Daten bereitstellen, die eine oder mehr Sensoreinheiten keine verwendbaren Daten bereitstellen oder beschädigt sind. In einer Ausführungsform kann die Datenqualitätskomponente 310 Daten über ein Mobilfunknetzwerk oder eine Internetverbindung empfangen, dass die Wetterbedingungen für Kamera- oder LIDAR-Daten schlecht sind.
  • Die V2X-Komponente 312 ist dazu ausgelegt, V2V- oder V2X-Kommunikationen zu empfangen. In einer Ausführungsform stellt die V2X-Komponente 312 die V2V- oder V2X-Kommunikationen der Standortkomponente 306 oder dem Speicher 304 bereit. Beispielsweise kann die Standortkomponente 306 einen Standort eines Fahrzeugs auf der Basis der V2V- und/oder der V2X-Kommunikationen bestimmen.
  • Jetzt Bezug nehmend auf 4 ist ein schematisches Flussdiagramm eines Verfahrens 400 für die Wahrnehmung und Lokalisierung für ein Straßenfahrzeug oder für ein automatisiertes Fahr- oder automatisiertes Assistenzsystem eines Fahrzeugs dargestellt. Das Verfahren 400 kann von einem automatisierten Fahr-/Assistenzsystem oder einer Lokalisierungskomponente, wie etwa dem automatisierten Fahr-/Assistenzsystem 102 von 1 oder der Lokalisierungskomponente 104 von 3, durchgeführt werden.
  • Das Verfahren 400 beginnt mit dem Speichern einer Karte einer Straße oder eines Fahrwegs, auf der bzw. dem sich ein Fahrzeug, wie etwa das Fahrzeug 100, bewegen kann, bei 410 in Speicher 304. Es versteht sich, dass der Speicher 304 auch Informationen von vorherigen vom Fahrzeug gefahrenen Routen und Touren bei 412 speichern kann. Die Lokalisierungskomponente 104 empfängt Wahrnehmungsinformationen von einem Radarsystem für einen Boden und/oder für Objekte in einer Region in der Nähe des Fahrzeugs bei 420. Die Lokalisierungskomponente 104 kann bei 430 auch Standortinformationen von einem Satellitenpositionsbestimmungssystem empfangen. Die Lokalisierungskomponente 104 kann bei 432 auch Standort- oder Wahrnehmungsinformationen von einem Infrastruktursystem oder einem anderen Fahrzeug empfangen. Eine Datenqualitätskomponente 310 bestimmt bei 434, dass ein Kamera- und/oder ein LIDAR-System keine verwendbaren Daten bereitstellen oder beschädigt sind. Eine Standortkomponente 306 bestimmt einen Standort eines Objekts oder einer Struktur, der von Wahrnehmungsinformationen vom Radarsystem detektiert wurde, wobei das Objekt oder die Struktur bei 436 in der Karte identifiziert wird. Die Standortkomponente 306 bestimmt bei 438 auf der Basis der Radarwahrnehmungsinformationen und eines Satellitenpositionsbestimmungssystems einen Standort des Fahrzeugs auf der Karte. Eine Fahrsteuerungskomponente 308 führt auf der Basis des bei 440 auf der Karte bestimmten Standorts ein Fahrmanöver durch oder bewirkt, dass ein Fahrzeug ein Fahrmanöver durchführt.
  • Beispiele
  • Die folgenden Beispiele betreffen weitere Ausführungsformen.
  • Beispiel 1 ist ein Fahrzeugfahrsystem, das Folgendes umfasst: Speichermedien zum Speichern einer Karte von Fahrbahnen, ein Radarsystem, das dazu ausgelegt ist, Wahrnehmungsinformationen von einer Region in der Nähe des Fahrzeugs zu erzeugen, eine Standortkomponente, die dazu ausgelegt ist, auf der Basis der Radarwahrnehmungsinformationen und anderer navigationsbezogener Daten einen Standort des Fahrzeugs zu bestimmen, und eine Fahrsteuerung, die dazu ausgelegt ist, auf der Basis der Karte und des bestimmten Standorts das Fahren des Fahrzeugs zu steuern.
  • In Beispiel 2 umfasst das Fahrzeugfahrsystem aus Beispiel 1 ferner eine oder mehr zusätzliche Sensoreinheiten und eine Datenqualitätskomponente, die dazu ausgelegt ist zu bestimmen, dass eine oder mehr Sensoreinheiten keine verwendbaren Daten bereitstellen oder beschädigt sind. Die Standortkomponente ist dazu ausgelegt, auf der Basis der Radarwahrnehmungsinformationen in Reaktion auf das Bestimmen, dass die eine oder mehr Sensoreinheiten keine verwendbaren Daten bereitstellen oder beschädigt sind, den Standort des Fahrzeugs zu bestimmen.
  • In Beispiel 3 ist die Datenqualitätskomponente aus Beispiel 2 dazu ausgelegt zu bestimmen, dass auf der Basis der aktuellen Wetterbedingungen und/oder einer Bestimmung, dass die eine oder mehr Sensoreinheiten keine Daten bereitstellen, die eine oder mehr Sensoreinheiten keine verwendbaren Daten bereitstellen oder beschädigt sind.
  • In Beispiel 4 umfassen die eine oder mehr zusätzlichen Sensoreinheiten in jedem der Beispiele 2–3 ein Kamera- und/oder ein LIDAR-System, wobei die Datenqualitätskomponente dazu ausgelegt ist zu bestimmen, dass das Kamera- und/oder das LIDAR-System keine verwendbaren Daten bereitstellen oder beschädigt sind.
  • In Beispiel 5 umfassen die anderen navigationsbezogenen Daten aus jedem der Beispiele 1–4 von einem Positionsbestimmungssystem bestimmte Informationen, auf der Basis einer Fahrzeug-zu-Fahrzeug-Kommunikation bestimmte Standortinformationen, auf der Basis einer Fahrzeug-zu-Infrastruktur-Kommunikation bestimmte Standortinformationen und/oder Tourdaten von einer oder mehreren von dem Fahrzeug unternommenen vorherigen Touren.
  • Beispiel 6 ist ein Verfahren der Wahrnehmung und Lokalisierung für ein Straßenfahrzeug. Das Verfahren umfasst: Speichern einer Karte einer Straße oder eines Fahrwegs, Empfangen von Wahrnehmungsinformationen von einem Radarsystem für einen Boden und/oder für Objekte in einer Region in der Nähe des Fahrzeugs, Empfangen von Standortinformationen von einem Satellitenpositionsbestimmungssystem, Bestimmen auf der Basis der Radarwahrnehmungsinformationen und des Satellitenpositionsbestimmungssystems eines Standorts des Fahrzeugs und Durchführen eines Fahrmanövers auf der Basis des bestimmten Standorts auf der Karte.
  • In Beispiel 7 umfasst das Verfahren aus Beispiel 6 ferner das Speichern von Informationen von vorherigen vom Fahrzeug gefahrenen Routen und Touren, wobei das Bestimmen des Standorts ferner das Bestimmen des Standorts auf der Basis der Informationen von vorherigen vom Fahrzeug gefahrenen Routen und Touren umfasst.
  • In Beispiel 8 umfasst das Bestimmen des Standorts des Fahrzeugs auf der Karte aus jedem der Beispiele 6–7 das Bestimmen auf der Basis der Informationen vom Satellitenpositionsbestimmungssystem und auf der Basis eines Standorts eines Objekts oder einer Struktur, der von den Wahrnehmungsinformationen vom Radarsystem detektiert wurde, wobei das Objekt oder die Struktur auf der Karte identifiziert wird.
  • In Beispiel 9 umfasst das Speichern der Karte in jedem der Beispiele 6–8 das Speichern einer Karte, die Informationen über Standorte des Objekts oder der Struktur in Bezug auf die Straße oder den Fahrweg umfasst.
  • In Beispiel 10 umfasst das Verfahren aus jedem der Beispiele 6–9 ferner das Empfangen von Standort- oder Wahrnehmungsinformationen von einem Infrastruktursystem oder einem anderen Fahrzeug, wobei das Bestimmen des Standorts ferner das Bestimmen auf der Basis der Standort- oder Wahrnehmungsinformationen vom Infrastruktursystem oder vom anderen Fahrzeug umfasst.
  • Beispiel 11 ist das Verfahren aus jedem der Beispiele 6–10, wobei das Straßenfahrzeug ferner ein Kamera- und/oder ein LIDAR-System umfasst, das Verfahren ferner das Bestimmen umfasst, dass das Kamera- und/oder das LIDAR-System keine verwendbaren Daten bereitstellen oder beschädigt sind, und das Bestimmen des Standorts des Fahrzeugs auf der Basis der Wahrnehmungsinformationen von einem Radarsystem in Reaktion auf das Bestimmen, dass das Kamera- oder das LIDAR-System keine verwendbaren Daten bereitstellen oder beschädigt sind, durchgeführt wird.
  • Beispiel 12 sind computerlesbare Speichermedien, die Anweisungen speichern, die, wenn sie von einem Prozessor ausgeführt werden, bewirken, dass der Prozessor Kartendaten vom Speicher erhält, wobei die Kartendaten einer Karte von einer Straße entsprechen, navigationsbezogene Daten von einer oder mehreren Quellen erhält, Radarsystemdaten für eine Region in der Nähe eines Fahrzeugs erhält, die Radarsystemdaten und die navigationsbezogenen Daten verarbeitet, um eine Position eines Fahrzeugs in Bezug auf die Straße zu lokalisieren, und die Position des Fahrzeugs einem autonomen Fahrsystem des Fahrzeugs bereitstellt.
  • In Beispiel 13 umfassen die navigationsbezogenen Daten aus Beispiel 12 Satellitenpositionsbestimmungsdaten von einem Satellitenpositionsbestimmungssystem, über eine Fahrzeug-zu-Fahrzeug-Kommunikation empfangene Informationen, über eine Fahrzeug-zu-Infrastruktur-Kommunikation empfangene Informationen und/oder Informationen von vorherigen vom Fahrzeug gefahrenen Routen und Touren.
  • In Beispiel 14 umfassen die Kartendaten aus jedem der Beispiele 12–13 Informationen über Standorte eines Objekts oder einer Struktur in Bezug auf die Straße.
  • In Beispiel 15 umfassen die Radarsystemdaten aus jedem der Beispiele 12–14 Informationen über einen Standort des Objekts oder der Struktur in Bezug zum Fahrzeug, wobei das Verarbeiten der Radarsystemdaten zum Lokalisieren der Position das Bestimmen des Standorts auf der Basis der Standorte des Objekts oder der Struktur gemäß der Karte umfasst.
  • In Beispiel 16 umfasst das Fahrzeug aus jedem der Beispiele 12–15 ein Kamera- und/oder ein LIDAR-System, wobei die Anweisungen ferner bewirken, dass der Prozessor bestimmt, dass das Kamera- und/oder das LIDAR-System keine verwendbaren Daten bereitstellen oder beschädigt sind.
  • In Beispiel 17 bewirken die Anweisungen aus jedem der Beispiele 12–16, dass der Prozessor die Radarsystemdaten und die navigationsbezogenen Daten verarbeitet, um in Reaktion auf das Bestimmen, dass das Kamera- oder das LIDAR-System keine verwendbaren Daten bereitstellt oder beschädigt ist, die Position zu lokalisieren.
  • Es ist anzumerken, dass die oben erörterten Sensorausführungsformen Computerhardware, -software, -firmware oder jede Kombination davon umfassen kann, um mindestens einen Teil von deren Funktionen durchzuführen. Beispielsweise kann ein Sensor Computercode umfassen, der dazu ausgelegt ist, in einem oder mehreren Prozessoren ausgeführt zu werden, sowie Hardwarelogik bzw. elektrische Schaltungen umfassen, die vom Computercode gesteuert werden. Diese Beispielvorrichtungen werden hier zum Zweck der Darstellung bereitgestellt und sollen nicht als Einschränkung aufgefasst werden. Ausführungsformen der vorliegenden Offenbarung können in weiteren Arten von Vorrichtungen implementiert werden, wie dem entsprechenden Fachmann bekannt sein dürfte.
  • Ausführungsformen der Offenbarung wurden auf Computerprogrammprodukte ausgerichtet, die eine solche auf jedem beliebigen computernutzbaren Medium gespeicherte Logik (z. B. in Form von Software) umfassen. Eine solche Software bewirkt, wenn sie in einer oder mehreren Verarbeitungsvorrichtungen ausgeführt wird, dass eine Vorrichtung wie hier beschrieben betrieben wird.
  • Während oben verschiedene Ausführungsformen der vorliegenden Offenbarung beschrieben wurden, sei darauf hingewiesen, dass sie als Beispiele und ohne Einschränkung präsentiert wurden. Für den entsprechenden Fachmann ist es offensichtlich, dass daran verschiedene Änderungen in Form und Detail vorgenommen werden können, ohne vom Gedanken und Schutzbereich der Offenbarung abzuweichen. Daher sollten Breite und Schutzbereich der vorliegenden Offenbarung nicht durch eine der oben beschriebenen beispielhaften Ausführungsformen eingeschränkt, sondern nur gemäß den folgenden Ansprüchen und deren Entsprechungen definiert werden. Die obige Beschreibung dient Veranschaulichungs- und Beschreibungszwecken. Sie soll nicht erschöpfend sein oder die Offenbarung auf die präzise offenbarte Form einschränken. Im Licht der obigen Lehre sind viele Modifikationen und Variationen möglich. Ferner sei darauf hingewiesen, dass jede oder alle der vorgenannten alternativen Implementierungen in jeder gewünschten Kombination verwendet werden können, um zusätzliche hybride Implementierungen der Offenbarung zu bilden.
  • Ferner soll, obwohl spezifische Implementierungen der Offenbarung beschrieben und dargestellt wurden, die Offenbarung nicht auf die spezifischen Formen oder Anordnungen der so beschriebenen und dargestellten Teile eingeschränkt werden. Der Schutzbereich der Offenbarung soll von den hier beiliegenden Ansprüchen, allen künftigen hier und bei anderen Anmeldungen vorgelegten Ansprüchen und deren Entsprechungen definiert werden.

Claims (20)

  1. Fahrzeugfahrsystem, das Folgendes umfasst: Speichermedien, die eine Karte von Fahrbahnen speichern; ein Radarsystem, das dazu ausgelegt ist, Radarwahrnehmungsinformationen aus einer Region in der Nähe eines Fahrzeugs zu erzeugen; eine Standortkomponente, die dazu ausgelegt ist, auf der Basis der Radarwahrnehmungsinformationen und anderer navigationsbezogener Daten einen Standort des Fahrzeugs zu bestimmen, und eine Fahrsteuerung, die dazu ausgelegt ist, das Fahren des Fahrzeugs auf der Basis der Karte und des bestimmten Standorts zu steuern.
  2. Fahrzeugfahrsystem nach Anspruch 1, wobei das Fahrzeugfahrsystem autonom ist und ferner eine oder mehrere zusätzliche Sensoreinheiten umfasst sowie eine Datenqualitätskomponente, die dazu ausgelegt ist zu bestimmen, dass eine oder mehrere Sensoreinheiten keine verwendbaren Daten bereitstellen oder beschädigt sind, wobei die Standortkomponente dazu ausgelegt ist, in Reaktion auf das Bestimmen, dass die eine oder die mehreren Sensoreinheiten keine verwendbaren Daten bereitstellen oder beschädigt sind, den Standort des Fahrzeugs auf der Basis der Radarwahrnehmungsinformationen zu bestimmen.
  3. Fahrzeugfahrsystem nach Anspruch 2, wobei die Datenqualitätskomponente dazu ausgelegt ist zu bestimmen, dass die eine oder die mehreren Sensoreinheiten keine verwendbaren Daten bereitstellen oder beschädigt sind, und zwar auf der Basis von: den aktuellen Wetterbedingungen und/oder dem Bestimmen, dass die eine oder die mehreren Sensoreinheiten keine Daten bereitstellen.
  4. Fahrzeugfahrsystem nach Anspruch 2, wobei die eine oder die mehreren zusätzlichen Sensoreinheiten ein Kamera- und/oder ein lichtlaserbetriebenes Radarsystem (LIDAR) umfassen, wobei die Datenqualitätskomponente dazu ausgelegt ist zu bestimmen, dass das Kamera- und/oder das LIDAR-System keine verwendbaren Daten bereitstellen oder beschädigt sind.
  5. Fahrzeugfahrsystem nach Anspruch 1, wobei die anderen navigationsbezogenen Daten von einem Positionsbestimmungssystem bestimmte Standortinformationen umfassen.
  6. Fahrzeugfahrsystem nach Anspruch 1, wobei die anderen navigationsbezogenen Daten auf der Basis einer Fahrzeug-zu-Fahrzeug-Kommunikation bestimmte Standortinformationen umfassen.
  7. Fahrzeugfahrsystem nach Anspruch 1, wobei die anderen navigationsbezogenen Daten auf der Basis einer Fahrzeug-zu-Infrastruktur-Kommunikation bestimmte Standortinformationen umfassen.
  8. Fahrzeugfahrsystem nach Anspruch 1, wobei die anderen navigationsbezogenen Daten Tourdaten von einer oder mehreren vorherigen vom Fahrzeug unternommenen Touren umfassen.
  9. Verfahren der Wahrnehmung und Lokalisierung für ein Straßenfahrzeug, das Folgendes umfasst: Speichern einer Karte einer Straße oder eines Fahrwegs; Empfangen von Wahrnehmungsinformationen von einem Radarsystem für einen Boden und/oder für Objekte in einer Region in der Nähe des Fahrzeugs; Empfangen von Standortinformationen von einem Satellitenpositionsbestimmungssystem; Bestimmen eines Standorts des Fahrzeugs auf der Karte auf der Basis der Radarwahrnehmungsinformationen und der Standortinformationen und Durchführen eines Fahrmanövers auf der Basis des bestimmten Standorts auf der Karte.
  10. Verfahren nach Anspruch 9, das ferner das Speichern von Informationen von vorherigen vom Fahrzeug gefahrenen Routen und Touren umfasst, wobei das Bestimmen des Standorts ferner das Bestimmen des Standorts auf der Basis der Informationen von vorherigen vom Fahrzeug gefahrenen Routen und Touren umfasst.
  11. Verfahren nach Anspruch 9, wobei das Bestimmen des Standorts des Fahrzeugs auf der Karte ferner auf den Informationen vom Satellitenpositionsbestimmungssystem und auf einem Standort eines Objekts oder einer Struktur basiert, der von den Wahrnehmungsinformationen vom Radarsystem detektiert wurde, wobei das Objekt oder die Struktur auf der Karte identifiziert wird.
  12. Verfahren nach Anspruch 11, wobei das Speichern der Karte das Speichern einer Karte umfasst, die Informationen über Standorte des Objekts oder der Struktur in Bezug auf die Straße oder den Fahrweg umfasst.
  13. Verfahren nach Anspruch 9, das ferner das Empfangen von Standort- oder Wahrnehmungsinformationen von einem Infrastruktursystem oder einem anderen Fahrzeug umfasst, wobei das Bestimmen des Standorts ferner das Bestimmen auf der Basis der Standort- oder Wahrnehmungsinformationen vom Infrastruktursystem oder vom anderen Fahrzeug umfasst.
  14. Verfahren nach Anspruch 9, wobei: das Straßenfahrzeug ferner ein Kamera- und/oder ein lichtlaserbetriebenes Radarsystem (LIDAR) umfasst; das Verfahren ferner das Bestimmen umfasst, dass das Kamera- und/oder das LIDAR-System keine verwendbaren Daten bereitstellen oder beschädigt sind, und das Bestimmen des Standorts des Fahrzeugs auf der Basis der Wahrnehmungsinformationen von einem Radarsystem in Reaktion auf das Bestimmen, dass das Kamera- oder das LIDAR-System keine verwendbaren Daten bereitstellt oder beschädigt ist, durchgeführt wird.
  15. Computerlesbare Speichermedien, die Anweisungen speichern, die, wenn sie von einem Prozessor ausgeführt werden, bewirken, dass der Prozessor: Kartendaten aus dem Speicher erhält, wobei die Kartendaten einer Karte einer Straße entsprechen; navigationsbezogene Daten von einer oder mehreren Quellen erhält; Radarsystemdaten für eine Region in der Nähe eines Fahrzeugs erhält; die Radarsystemdaten und die navigationsbezogenen Daten verarbeitet, um eine Position des Fahrzeugs in Bezug auf die Straße zu lokalisieren, und die Position des Fahrzeugs einem autonomen Fahrsystem des Fahrzeugs bereitstellt.
  16. Computerlesbare Speichermedien nach Anspruch 15, wobei die navigationsbezogenen Daten Folgendes umfassen: Satellitenpositionsbestimmungsdaten von einem Satellitenpositionsbestimmungssystem; und/oder von einer Fahrzeug-zu-Fahrzeug-Kommunikation empfangene Informationen; und/oder von einer Fahrzeug-zu-Infrastruktur-Kommunikation empfangene Informationen und/oder Informationen von vorherigen vom Fahrzeug gefahrenen Routen und Touren.
  17. Computerlesbare Speichermedien nach Anspruch 15, wobei die Kartendaten Informationen über Standorte eines Objekts oder einer Struktur in Bezug zur Straße umfassen.
  18. Computerlesbare Speichermedien nach Anspruch 17, wobei die Radarsystemdaten Informationen über einen Standort des Objekts oder der Struktur in Bezug zum Fahrzeug umfassen, und wobei das Verarbeiten der Radarsystemdaten zum Lokalisieren der Position das Bestimmen des Standorts auf der Basis der Standorte des Objekts oder der Struktur gemäß der Karte umfasst.
  19. Computerlesbare Speichermedien nach Anspruch 15, wobei das Fahrzeug ein Kamera- und/oder ein lichtlaserbetriebenes Radarsystem (LIDAR) umfasst und wobei die Anweisungen ferner bewirken, dass der Prozessor bestimmt, dass das Kamera- und/oder das LIDAR-System keine verwendbaren Daten bereitstellen oder beschädigt sind.
  20. Computerlesbare Speichermedien nach Anspruch 19, wobei die Anweisungen bewirken, dass der Prozessor die Radarsystemdaten und die navigationsbezogenen Daten verarbeitet, um in Reaktion auf das Bestimmen, dass das Kamera- oder das LIDAR-System keine verwendbaren Daten bereitstellt oder beschädigt ist, die Position zu lokalisieren.
DE102016117123.9A 2015-09-16 2016-09-12 Fahrzeugradarwahrnehmung und -lokalisierung Pending DE102016117123A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/856,010 2015-09-16
US14/856,010 US10082797B2 (en) 2015-09-16 2015-09-16 Vehicle radar perception and localization

Publications (1)

Publication Number Publication Date
DE102016117123A1 true DE102016117123A1 (de) 2017-03-16

Family

ID=57288633

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016117123.9A Pending DE102016117123A1 (de) 2015-09-16 2016-09-12 Fahrzeugradarwahrnehmung und -lokalisierung

Country Status (6)

Country Link
US (3) US10082797B2 (de)
CN (1) CN106546977B (de)
DE (1) DE102016117123A1 (de)
GB (1) GB2543930A (de)
MX (1) MX2016011943A (de)
RU (1) RU2016136822A (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108508872A (zh) * 2018-04-18 2018-09-07 鄂尔多斯市普渡科技有限公司 一种无人驾驶汽车信息采集系统的故障检测方法

Families Citing this family (89)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9834223B2 (en) * 2015-12-15 2017-12-05 Ford Global Technologies, Llc Diagnosing and supplementing vehicle sensor data
JP6558239B2 (ja) * 2015-12-22 2019-08-14 アイシン・エィ・ダブリュ株式会社 自動運転支援システム、自動運転支援方法及びコンピュータプログラム
JP6583061B2 (ja) 2016-03-08 2019-10-02 トヨタ自動車株式会社 自動運転制御装置
US10509407B2 (en) * 2016-07-01 2019-12-17 Samsung Electronics Co., Ltd. Apparatus and method for a vehicle platform
CN109789880B (zh) * 2016-09-21 2022-03-11 苹果公司 车辆的外部通信
EP3299843A1 (de) * 2016-09-23 2018-03-28 MediaTek Inc. Verfahren und vorrichtung für ein kraftfahrzeugparkhilfesystem mit radarsensoren
US11155267B2 (en) 2016-10-11 2021-10-26 Samsung Electronics Co., Ltd. Mobile sensor platform
US10473793B2 (en) 2017-01-19 2019-11-12 Ford Global Technologies, Llc V2V collaborative relative positioning system
EP3376249A1 (de) * 2017-03-17 2018-09-19 Veoneer Sweden AB Verbesserte objektpositionsdetektion
CN110537109B (zh) 2017-04-28 2024-02-20 深圳市大疆创新科技有限公司 用于自主驾驶的感测组件
US20180314253A1 (en) * 2017-05-01 2018-11-01 Mentor Graphics Development (Deutschland) Gmbh Embedded automotive perception with machine learning classification of sensor data
US10401866B2 (en) * 2017-05-03 2019-09-03 GM Global Technology Operations LLC Methods and systems for lidar point cloud anomalies
US10495762B2 (en) * 2017-05-19 2019-12-03 Qualcomm Incorporated Non-line-of-sight (NLoS) satellite detection at a vehicle using a camera
EP3428577A1 (de) * 2017-07-12 2019-01-16 Veoneer Sweden AB Fahrerassistenzsystem und verfahren
DE102017212429A1 (de) * 2017-07-20 2019-01-24 Robert Bosch Gmbh Verfahren zum Kartieren eines Streckenabschnitts und Informationssystem
US11009868B2 (en) 2017-07-20 2021-05-18 Nuro, Inc. Fleet of autonomous vehicles with lane positioning and platooning behaviors
CA3070186A1 (en) 2017-07-20 2019-01-24 Nuro, Inc. Autonomous vehicle repositioning
WO2019023519A1 (en) 2017-07-28 2019-01-31 Nuro, Inc. FLEXIBLE COMPARTMENT DESIGN IN AN AUTONOMOUS OR SEMI-AUTONOMOUS VEHICLE
EP3667368B1 (de) * 2017-08-09 2024-04-10 Pioneer Corporation Sensorsteuerungsvorrichtung
US10613547B2 (en) * 2017-08-14 2020-04-07 GM Global Technology Operations LLC System and method for improved obstacle awareness in using a V2X communications system
US20190072978A1 (en) * 2017-09-01 2019-03-07 GM Global Technology Operations LLC Methods and systems for generating realtime map information
JP7058726B2 (ja) * 2017-09-22 2022-04-22 ウェイモ エルエルシー レーダ技術を使用した自律車両の動きの検出
DE102017217212A1 (de) * 2017-09-27 2019-03-28 Robert Bosch Gmbh Verfahren zur Lokalisierung eines höher automatisierten Fahrzeugs (HAF), insbesondere eines hochautomatisierten Fahrzeugs, und ein Fahrzeugsystem
US20200211385A1 (en) 2017-09-29 2020-07-02 3M Innovative Properties Company Probe management messages for vehicle-sourced infrastructure quality metrics
US10802485B2 (en) * 2017-10-09 2020-10-13 Here Global B.V. Apparatus, method and computer program product for facilitating navigation of a vehicle based upon a quality index of the map data
EP3476681A1 (de) * 2017-10-26 2019-05-01 Ningbo Geely Automobile Research & Development Co. Ltd. Autonom fahrendes fahrzeug
US10824862B2 (en) 2017-11-14 2020-11-03 Nuro, Inc. Three-dimensional object detection for autonomous robotic systems using image proposals
US10490075B2 (en) 2017-11-27 2019-11-26 Honda Motor Co., Ltd. System and method for providing road user related data based on vehicle communications
US11050162B2 (en) * 2017-12-02 2021-06-29 Metawave Corporation Method and apparatus for object detection with integrated environmental information
CN109932741B (zh) * 2017-12-19 2024-02-27 斑马智行网络(香港)有限公司 定位方法、定位设备、定位系统、计算设备及存储介质
JP2019117542A (ja) 2017-12-27 2019-07-18 トヨタ自動車株式会社 案内情報提供システム
US20190204845A1 (en) * 2017-12-29 2019-07-04 Waymo Llc Sensor integration for large autonomous vehicles
EP3517996B1 (de) * 2018-01-25 2022-09-07 Aptiv Technologies Limited Verfahren zur bestimmung der position eines fahrzeugs
KR102496654B1 (ko) * 2018-02-21 2023-02-07 현대자동차주식회사 차량의 주행모드 전환 제어 장치 및 방법, 그리고 차량 시스템
CN111788532B (zh) * 2018-02-28 2022-05-10 北美日产公司 用于自主运载工具决策的运输网络基础设施
US11365976B2 (en) 2018-03-02 2022-06-21 Nvidia Corporation Semantic label based filtering of objects in an image generated from high definition map data
DE102018203644A1 (de) * 2018-03-12 2019-09-12 Robert Bosch Gmbh Verfahren zur satellitengestützten Bestimmung der Position eines Fahrzeugs
US10705194B2 (en) * 2018-03-21 2020-07-07 Zoox, Inc. Automated detection of sensor miscalibration
CN108284838A (zh) * 2018-03-27 2018-07-17 杭州欧镭激光技术有限公司 一种用于检测车辆外部环境信息的检测系统及检测方法
US10551477B2 (en) * 2018-03-28 2020-02-04 Qualcomm Incorporated Method and apparatus for V2X assisted positioning determination using positioning reference signal signals
CN111936820A (zh) * 2018-03-30 2020-11-13 丰田自动车欧洲公司 用于调整车辆外部位置信息的系统和方法
US11520335B2 (en) * 2018-04-12 2022-12-06 Baidu Usa Llc Determining driving paths for autonomous driving vehicles based on map data
US11237269B2 (en) 2018-04-26 2022-02-01 Ford Global Technologies, Llc Localization technique
US11136022B2 (en) 2018-05-29 2021-10-05 Hitachi Automotive Systems, Ltd. Road marker detection method
CN109017306A (zh) * 2018-06-07 2018-12-18 北京海纳川汽车部件股份有限公司 车辆的导航系统、导航系统的导航方法以及车辆
US11113971B2 (en) * 2018-06-12 2021-09-07 Baidu Usa Llc V2X communication-based vehicle lane system for autonomous vehicles
US10816345B2 (en) * 2018-06-22 2020-10-27 Qualcomm Incorporated Enhancing navigation experience using V2X supplemental information
US11015940B2 (en) 2018-07-13 2021-05-25 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for longitudinal position correction of a vehicle using mapped landmarks
CN108986450B (zh) * 2018-07-25 2024-01-16 北京万集科技股份有限公司 车辆环境感知方法、终端及系统
US11243531B2 (en) * 2018-08-09 2022-02-08 Caterpillar Paving Products Inc. Navigation system for a machine
CN110928284B (zh) * 2018-09-19 2024-03-29 阿波罗智能技术(北京)有限公司 辅助控制车辆的自动驾驶的方法、设备、介质和系统
CN110940347B (zh) * 2018-09-21 2024-04-12 斑马智行网络(香港)有限公司 一种辅助车辆导航方法和系统
US11428781B2 (en) * 2018-11-01 2022-08-30 Robert Bosch Gmbh System and method for radar-based localization in sparse environment
US11105927B2 (en) * 2018-11-29 2021-08-31 Waymo Llc Localization initialization for autonomous vehicles
DE102018220799A1 (de) * 2018-12-03 2020-06-04 Robert Bosch Gmbh Verfahren zum Betreiben eines Fahrzeugs
DE102018221178A1 (de) * 2018-12-06 2020-06-10 Robert Bosch Gmbh Lokalisierungssystem
US10870351B2 (en) 2018-12-12 2020-12-22 Here Global B.V. Method and apparatus for augmented reality based on localization and environmental conditions
US20200189463A1 (en) * 2018-12-13 2020-06-18 Waymo Llc Detecting puddles and standing water
US20200201354A1 (en) * 2018-12-20 2020-06-25 Here Global B.V. Methods and systems for autonomous vehicle navigation
US11409285B2 (en) * 2018-12-27 2022-08-09 Continental Automotive Systems, Inc. Method for maneuver prediction of traffic participant
US11125567B2 (en) * 2019-01-18 2021-09-21 GM Global Technology Operations LLC Methods and systems for mapping and localization for a vehicle
CN111522003B (zh) * 2019-01-31 2022-11-11 广州汽车集团股份有限公司 车辆定位方法及系统、计算机设备、车辆、存储介质
US11112252B2 (en) * 2019-02-14 2021-09-07 Hitachi Ltd. Sensor fusion for accurate localization
JP2020147148A (ja) * 2019-03-13 2020-09-17 トヨタ自動車株式会社 情報処理装置及び情報処理装置を備える自動走行制御システム
DE102020206660A1 (de) * 2019-05-30 2020-12-03 Robert Bosch Gesellschaft mit beschränkter Haftung Redundante umgebungswahrnehmungsverfolgung für automatisierte fahrsysteme
US11270530B2 (en) 2019-06-12 2022-03-08 Caterpillar Inc. Vehicle pose sharing diagnostic system
CN112149659B (zh) * 2019-06-27 2021-11-09 浙江商汤科技开发有限公司 定位方法及装置、电子设备和存储介质
CN110456788A (zh) * 2019-07-22 2019-11-15 中兴智能汽车有限公司 一种自动驾驶客车控制系统及自动驾驶客车
US11500104B2 (en) 2019-08-16 2022-11-15 Ford Global Technologies, Llc Localizing a moving object
US11964627B2 (en) 2019-09-30 2024-04-23 Nuro, Inc. Methods and apparatus for supporting compartment inserts in autonomous delivery vehicles
CN110531377B (zh) * 2019-10-08 2022-02-25 北京邮电大学 雷达系统的数据处理方法、装置、电子设备和存储介质
DE102019217393A1 (de) * 2019-11-11 2021-05-12 Robert Bosch Gmbh Verfahren zum Betreiben einer autonomen Fahrfunktion eines Fahrzeugs
EP3832525A1 (de) * 2019-12-03 2021-06-09 Aptiv Technologies Limited Fahrzeuge, systeme und verfahren zur bestimmung eines eintritts einer belegungskarte in der nähe eines fahrzeugs
US11544936B2 (en) * 2019-12-20 2023-01-03 Zoox, Inc. In-path obstacle detection and avoidance system
US11587333B2 (en) * 2020-02-10 2023-02-21 GM Global Technology Operations LLC Systems and methods for monitoring and maintaining stability of vehicle cargo
JP7350671B2 (ja) * 2020-02-25 2023-09-26 三菱重工業株式会社 位置推定装置、制御装置、産業用車両、物流支援システム、位置推定方法およびプログラム
JP2023518723A (ja) 2020-03-23 2023-05-08 ニューロ・インコーポレーテッド 自動配達のための方法および装置
US11551456B2 (en) 2020-06-17 2023-01-10 Ford Global Technologies, Llc Enhanced infrastructure
US11288520B2 (en) 2020-06-25 2022-03-29 Toyota Motor Engineering & Manufacturing N.A. Inc. Systems and methods to aggregate and distribute dynamic information of crowdsourcing vehicles for edge-assisted live map service
US11708070B2 (en) * 2020-08-26 2023-07-25 Toyota Motor Engineering & Manufacturing North America, Inc. Detecting an object outside of a field of view
CN112433211B (zh) * 2020-11-27 2022-11-29 浙江商汤科技开发有限公司 一种位姿确定方法及装置、电子设备和存储介质
FR3117253A1 (fr) * 2020-12-03 2022-06-10 Psa Automobiles Sa Procédé et dispositif d’émission d’éléments de guidage par un premier véhicule
US20220260993A1 (en) * 2021-02-16 2022-08-18 Ford Global Technologies, Llc Vehicle Control Systems And Methods
CN113156455A (zh) * 2021-03-16 2021-07-23 武汉理工大学 基于路侧多激光雷达感知的车定位系统、方法、装置和介质
CN113470354A (zh) * 2021-06-24 2021-10-01 上海智能网联汽车技术中心有限公司 全天候路测感知系统
CN113984085A (zh) * 2021-11-16 2022-01-28 华东交通大学 一种雨雪覆盖道路的信息感知方法、系统以及可存储介质
WO2023164906A1 (zh) * 2022-03-03 2023-09-07 华为技术有限公司 一种扫描方法及装置
CN115205803A (zh) * 2022-07-14 2022-10-18 安徽蔚来智驾科技有限公司 自动驾驶环境感知方法、介质及车辆
US20240061119A1 (en) * 2022-08-16 2024-02-22 Qualcomm Incorporated Cellular radio frequency (rf) sensing in automobile navigation

Family Cites Families (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5479173A (en) * 1993-03-08 1995-12-26 Mazda Motor Corporation Obstacle sensing apparatus for vehicles
US7979173B2 (en) 1997-10-22 2011-07-12 Intelligent Technologies International, Inc. Autonomous vehicle travel control systems and methods
US8630795B2 (en) * 1999-03-11 2014-01-14 American Vehicular Sciences Llc Vehicle speed control method and arrangement
US6941220B2 (en) * 2000-09-12 2005-09-06 Center Comm Corporation Apparatus and method for vehicle navigation
US7403120B2 (en) * 2004-09-29 2008-07-22 Symbol Technologies, Inc. Reverse infrastructure location system and method
US20100066587A1 (en) * 2006-07-14 2010-03-18 Brian Masao Yamauchi Method and System for Controlling a Remote Vehicle
JP4869858B2 (ja) * 2006-10-05 2012-02-08 クラリオン株式会社 車両の走行制御システム
US20080243378A1 (en) * 2007-02-21 2008-10-02 Tele Atlas North America, Inc. System and method for vehicle navigation and piloting including absolute and relative coordinates
DE102008012654A1 (de) * 2007-08-29 2009-03-05 Continental Teves Ag & Co. Ohg Onlineerstellung einer digitalen Karte
KR20100100842A (ko) * 2007-11-02 2010-09-15 콘티넨탈 테베스 아게 운트 코. 오하게 디지털 맵의 검증
EP2578996B1 (de) * 2008-02-15 2018-10-17 Continental Teves AG & Co. OHG Fahrzeugsystem zur Navigation und/oder Fahrerassistenz
CN101965600B (zh) * 2008-03-27 2014-08-20 爱信艾达株式会社 行驶模式信息获取装置及其行驶模式信息获取方法
JP4770858B2 (ja) * 2008-03-28 2011-09-14 アイシン・エィ・ダブリュ株式会社 信号交差点情報取得装置、信号交差点情報取得方法および信号交差点情報取得プログラム
DE102008052642A1 (de) * 2008-08-26 2010-03-04 Init Innovative Informatikanwendungen In Transport-, Verkehrs- Und Leitsystemen Gmbh Verfahren und Vorrichtung zur Ortung eines Fahrzeugs
US8989972B2 (en) * 2008-09-11 2015-03-24 Deere & Company Leader-follower fully-autonomous vehicle with operator on side
CN102282599B (zh) * 2009-02-19 2014-08-06 丰田自动车株式会社 移动体位置检测装置
CN102804734B (zh) * 2009-06-04 2017-05-03 大陆-特韦斯贸易合伙股份公司及两合公司 车辆单元
DE102010012877A1 (de) * 2010-03-26 2011-09-29 Continental Automotive Gmbh Bewertung von Karteninformationen
IT1399129B1 (it) 2010-04-01 2013-04-05 Paoletti Sistema di sorveglianza adattivo modulare per mezzi strutture persone
DE102010040803A1 (de) 2010-09-15 2012-03-15 Continental Teves Ag & Co. Ohg Visuelles Fahrerinformations- und Warnsystem für einen Fahrer eines Kraftfahrzeugs
US8509982B2 (en) 2010-10-05 2013-08-13 Google Inc. Zone driving
US9542846B2 (en) * 2011-02-28 2017-01-10 GM Global Technology Operations LLC Redundant lane sensing systems for fault-tolerant vehicular lateral controller
KR101703144B1 (ko) * 2012-02-09 2017-02-06 한국전자통신연구원 차량의 자율주행 장치 및 그 방법
US9041589B2 (en) * 2012-04-04 2015-05-26 Caterpillar Inc. Systems and methods for determining a radar device coverage region
US9253753B2 (en) * 2012-04-24 2016-02-02 Zetta Research And Development Llc-Forc Series Vehicle-to-vehicle safety transceiver using time slots
US8996228B1 (en) * 2012-09-05 2015-03-31 Google Inc. Construction zone object detection using light detection and ranging
US9499172B2 (en) 2012-09-20 2016-11-22 Google Inc. Detecting road weather conditions
DE102012222668A1 (de) * 2012-12-10 2014-06-12 Robert Bosch Gmbh Vorrichtung zur Fahrzeugumfeldüberwachung
US9367065B2 (en) 2013-01-25 2016-06-14 Google Inc. Modifying behavior of autonomous vehicles based on sensor blind spots and limitations
EP2793041A1 (de) * 2013-04-15 2014-10-22 Nederlandse Organisatie voor toegepast -natuurwetenschappelijk onderzoek TNO Gesicherte Fahrzeugabsolutlokalisierung
US9037404B2 (en) * 2013-06-01 2015-05-19 Savari, Inc. System and method for map matching
US9523984B1 (en) * 2013-07-12 2016-12-20 Google Inc. Methods and systems for determining instructions for pulling over an autonomous vehicle
US9719801B1 (en) * 2013-07-23 2017-08-01 Waymo Llc Methods and systems for calibrating sensors using road map data
US9435653B2 (en) * 2013-09-17 2016-09-06 GM Global Technology Operations LLC Sensor-aided vehicle positioning system
US10466709B2 (en) * 2013-11-08 2019-11-05 Hitachi, Ltd. Autonomous driving vehicle and autonomous driving system
WO2015075072A1 (en) * 2013-11-21 2015-05-28 Sony Corporation Surveillance apparatus having an optical camera and a radar sensor
JP6369028B2 (ja) * 2014-01-27 2018-08-08 アイシン・エィ・ダブリュ株式会社 経路探索システム、経路探索方法及びコンピュータプログラム
DE102014201824A1 (de) * 2014-02-03 2015-08-06 Robert Bosch Gmbh Verfahren und Vorrichtung zur Positionsbestimmung eines Fahrzeugs
US9989967B2 (en) * 2014-03-04 2018-06-05 Cybernet Systems Corporation All weather autonomously driven vehicles
EP2916190B1 (de) * 2014-03-04 2019-05-08 Volvo Car Corporation Vorrichtung und Verfahren zur Vorhersage von zum autonomen Fahren verfügbarer Zeit in einem Fahrzeug mit autonomer Fahrfähigkeit
WO2015156821A1 (en) * 2014-04-11 2015-10-15 Nissan North America, Inc. Vehicle localization system
GB201407643D0 (en) * 2014-04-30 2014-06-11 Tomtom Global Content Bv Improved positioning relatie to a digital map for assisted and automated driving operations
KR101619599B1 (ko) * 2014-08-08 2016-05-10 현대자동차주식회사 융합 레이더 센서 기반 저전력 차량 충돌 방지 방법 및 장치
KR20160027739A (ko) * 2014-09-02 2016-03-10 현대모비스 주식회사 차량의 위치 추정 장치 및 그 방법
US9494430B2 (en) * 2014-10-27 2016-11-15 Caterpillar Inc. Positioning system implementing multi-sensor pose solution
AU2014274647B2 (en) * 2014-12-12 2021-05-20 Caterpillar Of Australia Pty Ltd Determining terrain model error
US9676393B2 (en) * 2014-12-29 2017-06-13 Automotive Research & Test Center System and method for detecting environment-induced disablement of advanced driver assistance system
US9308914B1 (en) * 2015-01-23 2016-04-12 Denso International America, Inc. Advanced driver assistance system for vehicle
US9407826B1 (en) * 2015-02-05 2016-08-02 Rockwell Collins, Inc. System for and method of adjusting a vision system
US20160231746A1 (en) * 2015-02-06 2016-08-11 Delphi Technologies, Inc. System And Method To Operate An Automated Vehicle
JP5982034B1 (ja) * 2015-03-30 2016-08-31 富士重工業株式会社 車両の運転支援システム
US20170023659A1 (en) * 2015-05-08 2017-01-26 5D Robotics, Inc. Adaptive positioning system
US20160363647A1 (en) * 2015-06-15 2016-12-15 GM Global Technology Operations LLC Vehicle positioning in intersection using visual cues, stationary objects, and gps
US10495469B2 (en) * 2015-06-23 2019-12-03 Ford Global Technologies, Llc Rapid traffic parameter estimation
US9604639B2 (en) * 2015-08-28 2017-03-28 Delphi Technologies, Inc. Pedestrian-intent-detection for automated vehicles

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108508872A (zh) * 2018-04-18 2018-09-07 鄂尔多斯市普渡科技有限公司 一种无人驾驶汽车信息采集系统的故障检测方法

Also Published As

Publication number Publication date
US20180341273A1 (en) 2018-11-29
US20220026919A1 (en) 2022-01-27
MX2016011943A (es) 2017-03-15
GB2543930A (en) 2017-05-03
RU2016136822A (ru) 2018-03-19
GB201615783D0 (en) 2016-11-02
CN106546977B (zh) 2022-02-08
US10082797B2 (en) 2018-09-25
US11169534B2 (en) 2021-11-09
CN106546977A (zh) 2017-03-29
US20170075355A1 (en) 2017-03-16

Similar Documents

Publication Publication Date Title
DE102016117123A1 (de) Fahrzeugradarwahrnehmung und -lokalisierung
EP2819901B1 (de) Verfahren und vorrichtung zur ermittlung der geschwindigkeit und/oder position eines fahrzeuges
DE102014112351B4 (de) Sensorgestütztes fahrzeugpositionsbestimmungssystem
DE102016119130A1 (de) Probabilistische Folgerung unter Verwendung gewichteter Integrale und Summen durch Hashing zur Objektverfolgung
DE112020002175T5 (de) Systeme und verfahren zur fahrzeugnavigation
DE112020006426T5 (de) Systeme und verfahren zur fahrzeugnavigation
DE102016112913A1 (de) Verfahren und Vorrichtung zum Bestimmen einer Fahrzeug-Ich-Position
DE102016120507A1 (de) Prädizieren von fahrzeugbewegungen anhand von fahrerkörpersprache
DE112020003897T5 (de) Systeme und verfahren zur überwachung von fahrspurüberlastung
DE112020002764T5 (de) Systeme und verfahren zur fahrzeugnavigation
DE102016123878A1 (de) Fahrzeugblinksignaldetektion
DE102017108774A1 (de) Fahrzeugspurkartenschätzung
DE102018112269A1 (de) Verfahren und vorrichtungen für watsicherheit für fahrzeuge
DE102016119135A1 (de) Wahrnehmungsbasierte Geschwindigkeitsbegrenzungsschätzung und Lernen
DE102016120508A1 (de) Autonomes Fahren an Kreuzungen basierend auf Wahrnehmungsdaten
DE102017109401A1 (de) Netzwerkbasierte speicherung von fahrzeug- und infrastrukturdaten zur optimierung der fahrzeugroutenplanung
DE102012208974A1 (de) System und Verfahren zum sensorbasierten Aufbauen eines Umgebungsmodells
DE112020002592T5 (de) Systeme und verfahren zur fahrzeugnavigation basierend auf bildanalyse
DE102011117809A1 (de) Verfahren zum Ergänzen der GPS- oder GPS/Sensor-Fahrzeugpositionsbestimmung unter Verwendung zusätzlicher fahrzeuginterner Bilderfassungssensoren
DE112014002959T5 (de) Bestimmung der Fahrspurposition
DE102018005869A1 (de) System zur Erstellung eines Umgebungsmodells eines Fahrzeugs
DE112020002869T5 (de) Navigationssysteme und verfahren zum bestimmen von objektabmessungen
DE102021132853A1 (de) Auf deep learning basierende kamerakalibrierung
EP3729138B1 (de) Verfahren zur satellitengestützten ermittlung einer position eines fahrzeugs
WO2020043247A1 (de) Fahrbahnkartierungsvorrichtung

Legal Events

Date Code Title Description
R012 Request for examination validly filed