DE102019216989B4 - Fahrzeugsensorvalidierungssystem und Verfahren zur Objektvalidierung - Google Patents

Fahrzeugsensorvalidierungssystem und Verfahren zur Objektvalidierung Download PDF

Info

Publication number
DE102019216989B4
DE102019216989B4 DE102019216989.9A DE102019216989A DE102019216989B4 DE 102019216989 B4 DE102019216989 B4 DE 102019216989B4 DE 102019216989 A DE102019216989 A DE 102019216989A DE 102019216989 B4 DE102019216989 B4 DE 102019216989B4
Authority
DE
Germany
Prior art keywords
sensor
data
vehicle
sensors
operable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102019216989.9A
Other languages
English (en)
Other versions
DE102019216989A1 (de
Inventor
Thomas Gussner
Oliver F. Schwindt
Joachim Carsten Mueller
Andreas Heyl
Theresa Kienle
Stephan Reuter
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of DE102019216989A1 publication Critical patent/DE102019216989A1/de
Application granted granted Critical
Publication of DE102019216989B4 publication Critical patent/DE102019216989B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/04Monitoring the functioning of the control system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • B60W2050/0215Sensor drifts or sensor failures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/04Monitoring the functioning of the control system
    • B60W50/045Monitoring control system parameters
    • B60W2050/046Monitoring control system parameters involving external transmission of data to or from the vehicle, e.g. via telemetry, satellite, Global Positioning System [GPS]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/65Data transmitted between vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Human Computer Interaction (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)

Abstract

Fahrzeugsensorvalidierungssystem, das Folgendes umfasst:einen Koordinierprozessor, der betreibbar ist für Datenkommunikation mit einer Reihe von Fahrzeugen,ein Sensorfusionsnetzwerk, das mehrere Sensoren umfasst, die sich jeweils in Datenkommunikation mit dem Koordinierprozessor befinden, und das mehrere Ortssensoren umfasst, die jeweils betreibbar sind, eine Position von einem der mehreren Sensoren anzuzeigen,wobei das Sensorfusionsnetzwerk mindestens einen ersten Sensor, betreibbar zum Erzeugen von ersten Daten, und einen zweiten Sensor, betreibbar zum Erzeugen von zweiten Daten, und einen dritten Sensor, betreibbar zum Erzeugen von dritten Daten umfasst,wobei der erste Sensor mit einem ersten Fahrzeug der Reihe von Fahrzeugen verknüpft ist, die ersten Daten einen ersten Detektionsstatus eines Objekts angeben, die zweiten Daten einen zweiten Detektionsstatus des Objekts angeben und die dritten Daten einen dritten Detektionsstatus des Objekts angeben, undwobei der Koordinierprozessor betreibbar ist zum Erzeugen von koordinierten Daten auf der Grundlage der ersten Daten, der zweiten Daten und der dritten Daten, und den Relativpositionen des zweiten Sensors und dritten Sensors bezüglich des ersten Sensors, wobei die koordinierten Daten einen gewichteten Detektionsstatus des Objekts umfassen und wobei die koordinierten Daten unter Verwendung eines Mehrheitsabstimmung-Algorithmus auf der Grundlage der ersten Daten, der zweiten Daten und der dritten Daten erzeugt werden, undwobei die ersten Daten einen ersten Vertrauenswert umfassen und die zweiten Daten einen zweiten Vertrauenswert und die dritten Daten einen dritten Vertrauenswert umfassen und wobei der gewichtete Detektionsstatus erzeugt wird unter Verwendung des ersten, zweiten und dritten Vertrauenswertes als Gewichtsfaktoren.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung betrifft ein Fahrzeugsensorvalidierungssystem und Verfahren zur Objektvalidierung, und allgemein Sensorsysteme, die Fahrzeuge unterstützen können, die autonome oder teilautonome Selbstfahrfunktionen aufweisen.
  • Die US 2015/ 0 254 986 A1 beschreibt ein Fahrzeugsensorvalidierungssystem, umfassend einen Koordinierprozessor, der betreibbar ist für Datenkommunikation mit einer Reihe von Fahrzeugen, ein Sensorfusionsnetzwerk, das mehrere Sensoren umfasst, die sich jeweils in Datenkommunikation mit dem Koordinierprozessor befinden, wobei das Sensorfusionsnetzwerk mindestens einen ersten Sensor, betreibbar zum Erzeugen von ersten Daten, und einen zweiten Sensor, betreibbar zum Erzeugen von zweiten Daten umfasst, wobei der erste Sensor mit einem ersten Fahrzeug der Reihe von Fahrzeugen verknüpft ist, die ersten Daten einen ersten Detektionsstatus eines Objekts angeben, die zweiten Daten einen zweiten Detektionsstatus des Objekts angeben.
  • HINTERGRUND
  • Fahrzeuge, die Selbstfahr- oder Fahrerassistenzfunktionen aufweisen, hängen von Sensorinformationen zum Bestimmen der Fahrtbedingungen ab. Sensoren können zum Bereitstellen von Daten genutzt werden, die Umgebungsbedingungen, Verkehrsbedingungen oder Betriebsbedingungen des Fahrzeugs angeben. Diese sensorerzeugten Daten erlauben sicheren und effektiven Betrieb der Selbstfahr- oder Fahrerassistenzfunktionen des Fahrzeugs.
  • Die Sensorfunktionalität kann sich im Verlauf des Normalbetriebs ändern. Der Sensorbetrieb kann durch Umweltbedingungen, graduellen Kalibrationsverlust, Komponentenverschlechterung mit der Zeit, elektrische oder elektronische Fehler bzw. E/E-Fehler, Systemversagen oder unerwartete Ereignisse, wie etwa Kollisionen, beeinträchtigt werden. Änderungen der Sensorfunktionalität können einen weniger zuverlässigen Betrieb der Funktionen des Fahrzeugs schaffen. Daher können ein System und ein Verfahren des Validierens eines Sensorbetriebs während Normalnutzung Zuverlässigkeit und Sicherheit des Fahrzeugbetriebs vorteilhaft verbessern.
  • KURZDARSTELLUNG
  • Die vorliegende Erfindung schafft ein Fahrzeugsensorvalidierungssystem nach Anspruch 1 und ein Verfahren zur Oblektvbalidierung nach Anspruch 11.
  • Die obigen Aspekte dieser Offenbarung und andere Aspekte werden im Folgenden mit Bezug auf die beiliegenden Zeichnungen ausführlicher beschrieben.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
    • 1 ist eine diagrammatische Veranschaulichung eines Fahrzeugs, das mit einem Sensorfusionsnetzwerk verknüpfte Sensoren aufweist.
    • 2 ist eine diagrammatische Veranschaulichung eines Sensorfusionsnetzwerks, das betreibbar ist zum Validieren von Sensordaten, die zu statischen und sich bewegenden Objekten in der Umgebung gehören.
    • 3 ist eine diagrammatische Veranschaulichung eines Sensorfusionsnetzwerks, das betreibbar ist zum Vorhersagen von Freiräumen von Fahrzeugtrajektorien.
    • 4 ist ein Flussdiagramm, das ein Verfahren zur Sensorvalidierung unter Verwendung eines Sensorfusionsnetzwerks veranschaulicht.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Die dargestellten Ausführungsformen werden mit Bezugnahme auf die Zeichnungen offenbart. Es versteht sich jedoch, dass die offenbarten Ausführungsformen lediglich als Beispiele gedacht sind, die in verschiedenen und alternativen Formen umgesetzt sein können. Die Figuren sind nicht notwendigerweise maßstabsgetreu, und einige Merkmale können übertrieben oder minimiert sein, um Einzelheiten spezieller Komponenten zu zeigen. Die spezifischen offenbarten strukturellen und funktionalen Einzelheiten sind nicht als einschränkend aufzufassen, sondern als eine repräsentative Basis zum Lehren eines Durchschnittsfachmanns, wie die offenbarten Konzepte auszuüben sind.
  • 1 stellt eine diagrammatische Veranschaulichung eines Fahrzeugs 100 dar, das zum Einbinden in ein Sensorfusionsnetzwerk geeignete Sensoren aufweist. Bei der abgebildeten Ausführungsform umfasst das Fahrzeug 100 einen ersten Frontsensor 101, einen zweiten Frontsensor 103 und einen Hecksensor 105. Andere Ausführungsformen können andere Ausgestaltungen aufweisen, ohne von den hier offenbarten Lehren abzuweichen. Bei manchen Ausführungsformen kann das Fahrzeug 100 eine unterschiedliche Anzahl von Frontsensoren, eine unterschiedliche Anzahl von Hecksensoren, entlang beider Seiten des Fahrzeugs positionierte Sensoren, Fahrwerksensoren, Dachsensoren oder beliebige andere dem Durchschnittsfachmann bekannte Sensoren umfassen, ohne von den hier offenbarten Lehren abzuweichen. Bei der abgebildeten Ausführungsform kann jeder der abgebildeten Sensoren zur Objektdetektion geeignete Sensoren umfassen, wobei allerdings andere Ausführungsformen andere Formen von Sensoren umfassen können, ohne von den hier offenbarten Lehren abzuweichen. Sensoren können Näherungssensoren, Bewegungssensoren, Radarsensoren, Lidarsensoren, Infrarotsensoren, Ultraschallsensoren, Echoortungssensoren oder beliebige andere dem Durchschnittsfachmann bekannte Sensoren umfassen, ohne von den hier offenbarten Lehren abzuweichen. Bei manchen Ausführungsformen können einer oder mehrere des ersten Frontsensors 101, des zweiten Frontsensors 103 und des Hecksensors 105 Sensoren unterschiedlicher Arten oder unterschiedlicher Spezifikation umfassen. Bei manchen Ausführungsformen können einer oder mehrere Sensoren ausgelegt sein zum Erzeugen von Sensordaten und Vertrauensdaten, die ein relatives Vertrauen in die Genauigkeit der verknüpften Sensordaten angeben.
  • Betrieb der Sensoren und anderer Funktionen des Fahrzeugs können durch einen Fahrzeugprozessor 107 koordiniert werden. Der Fahrzeugprozessor 107 kann betreibbar sein zum Steuern der Funktionen von jedem der Sensoren des Fahrzeugs 100. Der Fahrzeugprozessor 107 kann betreibbar sein zum Steuern anderer Funktionen des Fahrzeugs 100. Der Fahrzeugprozessor 107 kann betreibbar sein zum Steuern von Autonomfahrfunktionen, Teilautonomfahrfunktionen, Selbstfahrfunktionen, oder Fahrerassistenzfunktionen. Der Fahrzeugprozessor 107 kann betreibbar sein zum Durchführen von Berechnungen, die für den Betrieb von Funktionen des Fahrzeugs 100 relevant sind, einschließlich Berechnungen, die durch einen oder mehrere der mit dem Fahrzeug 100 verknüpften Sensoren erzeugte Daten involvieren.
  • Das Fahrzeug 100 kann auch einen Ortssensor 109 umfassen, der sich in Datenkommunikation mit dem Fahrzeugprozessor 107 befindet. Der Ortssensor 109 kann betreibbar sein zum Erzeugen von Ortsdaten, die den Ort des Fahrzeugs 100 angeben. Der Ortssensor 109 kann betreibbar sein zum Detektieren der Position des Fahrzeugs 100 innerhalb des Zusammenhangs eines Global Positioning Systems (GPS), eines globalen Navigationssatellitensystems (GNSS), eines proprietären Navigationssystems oder irgendeines anderen dem Durchschnittsfachmann bekannten Positionierungssystems, ohne von den hier offenbarten Lehren abzuweichen. Bei manchen Ausführungsformen können die Abmessungen des Fahrzeugs 100 dem Fahrzeugprozessor 107 bekannt sein, was Berechnungen ermöglicht, die zu der exakten Position gewisser Anteile des Fahrzeugs 100 relativ zu den durch den Ortssensor 109 erzeugten Ortsdaten gehören.
  • Das Fahrzeug 100 kann auch einen Transceiver 111 umfassen, der sich in Datenkommunikation mit dem Fahrzeugprozessor 107 befindet. Der Transceiver 111 kann Datenkommunikation zwischen dem Fahrzeugprozessor 107 und einem oder mehreren gegenüber dem Fahrzeug 100 externen Prozessoren bereitstellen. Bei der abgebildeten Ausführungsform umfasst der Transceiver 111 eine Drahtlos-Transceivereinheit. Manche Ausführungsformen können einen getrennten Sender und Empfänger umfassen, ohne von den hier offenbarten Lehren abzuweichen. Der Transceiver 111 kann betreibbar sein zum Nutzen eines oder mehrerer drahtloser Sendeformate, wie etwa WiFi, Global System for Mobile communications (GSM), ein Zigby-Drahtlosprotokoll, oder eines beliebigen anderen dem Durchschnittsfachmann bekannten Kommunikationsformats, ohne von den hier offenbarten Lehren abzuweichen. Der Transceiver 111 kann den Fahrzeugprozessor 107 zum Interagieren mit anderen Prozessoren innerhalb eines Sensorfusionsnetzwerks befähigen.
  • Bei der abgebildeten Ausführungsform ist das Fahrzeug 100 ein Personenfahrzeug, wobei allerdings andere Ausführungsformen andere Ausgestaltungen umfassen können, ohne von den hier offenbarten Lehren abzuweichen. Bei manchen Ausführungsformen kann das Fahrzeug 100 eine Limousine, einen Lastwagen, einen Kleintransporter, ein Motorrad, einen Bus, ein Militärfahrzeug, ein Wasserfahrzeug, ein Privatflugzeug, ein Geschäftsflugzeug oder ein beliebiges anderes Fahrzeug, das Sensoren nutzt, die vom Durchschnittsfachmann anerkannt sind, umfassen, ohne von den hier offenbarten Lehren abzuweichen.
  • 2 ist eine diagrammatische Veranschaulichung eines Sensorfusionsnetzwerks, das betreibbar ist zum Validieren der Befunde von mindestens einem Sensor innerhalb des Netzwerks. Bei der abgebildeten Ausführungsform sind die Sensoren mit einer Reihe von Fahrzeugen 100 verknüpft (siehe 1), wobei allerdings andere Ausführungsformen Sensoren umfassen können, die nicht mit einem bestimmten Fahrzeug verknüpft sind, ohne von den hier offenbarten Lehren abzuweichen. Bei der abgebildeten Ausführungsform umfasst jedes der Fahrzeuge 100 ein Personenfahrzeug, das die in 1 abgebildete Ausgestaltung aufweist, wobei allerdings andere Ausführungsformen andere Fahrzeugarten aufweisen können, einschließlich oben unter Bezugnahme auf 1 erörterter unterschiedlicher Fahrzeugarten oder anderer Ausgestaltungen des Fahrzeugs 100, ohne von den hier offenbarten Lehren abzuweichen.
  • Bei der abgebildeten Ausführungsform kann das Fahrzeug 100a als ein Subjektfahrzeug mit einem für Validierung geeigneten Sensor dienen. Ein Sensor kann als Reaktion auf erwartete Umstände oder unerwartete Umstände für Validierung ausgewählt werden. Erwartete Umstände können Betriebsbedingungen umfassen, bei denen ein Fahrzeug 100 normalen Funktionsbedingungen ausgesetzt ist. Beispiele für erwartete Umstände können eine vorbestimmte Betriebsdauer, eine vorbestimmte Fahrdistanz, Routinewartung, Sensordatenvertrauen unter einem vorbestimmten Schwellenwert oder beliebige andere von einem Durchschnittsfachmann anerkannte erwartete Bedingungen umfassen, ohne von den hier offenbarten Lehren abzuweichen. Unerwartete Umstände können Betriebsbedingungen umfassen, bei denen ein Fahrzeug 100 anormalen Funktionsbedingungen ausgesetzt ist. Beispiele für unerwartete Umstände können einen E/E-Fehler, ein Versagen von einer oder mehreren Fahrzeugkomponenten, anormale Funktion einer oder mehrerer Fahrzeugkomponenten, Reparatur oder Ersatz von einer oder mehreren Fahrzeugkomponenten, Betrieb unter suboptimalen Umgebungsbedingungen, Fahrzeugkollision oder eine von einem Durchschnittsfachmann anerkannte beliebige andere unerwartete Bedingung umfassen, ohne von den hier offenbarten Lehren abzuweichen. Beispiele für E/E-Fehler können Bitkipper, Softwarefehler, inkorrektes Sensorplanen oder Kommunikationsfehler zwischen einer Fahrzeugkomponente und einer anderen Komponente des Fahrzeugs oder einer gegenüber dem Fahrzeug externen Komponente umfassen. Beispiele für eine abnormale Funktion können Unzulänglichkeit von Systemen gemäß einer erforderlichen Betriebsspezifikation, wie etwa ISO/PAS 21488, umfassen. Solche abnormalen Funktionen können sich aus widrigen Umgebungsbedingungen ergeben, wie etwa Niederschlag oder Nebel. Bei manchen Ausführungsformen kann ein Fahrzeugprozessor 107 betreibbar sein zum Diagnostizieren eines genauen Grunds für den Umstand, der eine Validierung rechtfertigt, ohne von den hier offenbarten Lehren abzuweichen. Bei solchen Ausführungsformen kann der Fahrzeugprozessor 107 betreibbar sein zum Erzeugen einer Angabe der Diagnose für einen Benutzer.
  • Andere Szenarien können andere Fahrzeuge als ein Subjektfahrzeug aufzeigen, ohne von den hier offenbarten Lehren abzuweichen. Bei der abgebildeten Ausführungsform kann jedes der Fahrzeuge 100 als Reaktion auf Detektion eines erwarteten oder eines unerwarteten Umstands als ein Subjektfahrzeug ausgewählt werden.
  • Bei der abgebildeten Ausführungsform können mit jedem der Fahrzeuge 100 verknüpfte Sensoren betreibbar sein zum Detektieren eines stationären Objekts oder eines sich bewegenden Objekts. Die durch die Sensoren detektierbaren Objekte können durch die Spezifikation der bestimmten Sensoren jedes Fahrzeugs diktiert sein. Bei der abgebildeten Ausführungsform kann ein stationäres Objekt ein Straßenschild 201 umfassen, wobei allerdings andere Ausführungsformen andere stationäre Objekte umfassen können, ohne von den hier offenbarten Lehren abzuweichen. Auf beispielhaftem und nicht beschränkendem Wege können stationäre Objekte auch Bäume, geparkte Fahrzeuge, Lichtmasten, Sperren, Verkehrskegel, Verkehrsinseln, Bordsteine, Geschwindigkeitshemmschwellen oder beliebige andere dem Durchschnittsfachmann bekannte stationäre Objekte, die man innerhalb aktiven Verkehrs finden kann, umfassen, ohne von den hier offenbarten Lehren abzuweichen.
  • Bei der abgebildeten Ausführungsform kann ein sich bewegendes Objekt einen Fußgänger 203 umfassen, wobei allerdings andere Ausführungsformen andere sich bewegende Objekte umfassen können, ohne von den hier offenbarten Lehren abzuweichen. Auf beispielhaftem und nicht beschränkendem Wege können sich bewegende Objekte auch Kraftfahrzeuge, Fahrräder, Straßenbahnwagen, Tiere, verlorene Kinderspielzeuge, Trümmer oder Schutt oder beliebige andere dem Durchschnittsfachmann bekannte sich potentiell bewegende Objekte, die man innerhalb aktiven Verkehrs finden kann, umfassen, ohne von den hier offenbarten Lehren abzuweichen. Bei der abgebildeten Ausführungsform bewegt sich der Fußgänger 203 entlang einer Trajektorie 205. Bei der abgebildeten Ausführungsform können die Sensoren der Fahrzeuge 100 betreibbar sein zum Detektieren oder Vorhersagen von Bewegung des Fußgängers 203 entlang der Trajektorie 205.
  • Bei der abgebildeten Ausführungsform können die Fahrzeugprozessoren 107 (siehe 1) jedes der Fahrzeuge 100 mit einem Koordinierprozessor 211 in Datenkommunikation stehen. Der Koordinierprozessor 211 kann betreibbar sein zum Bereitstellen von Datenkommunikation zwischen Fahrzeugen 100, einschließlich von gemeinsamem Nutzen von Sensordaten oder Vertrauensdaten zwischen Fahrzeugen 100. Manche Ausführungsformen weisen möglicherweise keinen Koordinierprozessor 211 auf, und stattdessen können einer oder mehrere der Fahrzeugprozessoren 107 die Funktionen des Koordinierprozessors liefern.
  • Bei einem Beispielbetrieb der abgebildeten Ausführungsform kann das Fahrzeug 100a einen unerwarteten Umstand detektieren, der eine Validierung des ersten Frontsensors 101a rechtfertigt. Während des Betriebs kann der erste Frontsensor 101a das Vorhandensein des Straßenschilds 201 und des Fußgängers 203 angeben. Da der erwartete Umstand eine Validierung rechtfertigt, kann der erste Frontsensor 101a als ein Subjektsensor bei einer Validierungsmessung betrachtet werden. Zusätzliche Versuche zum Detektieren der Objekte können durch den zweiten Frontsensor 103a, den ersten Frontsensor 101b, den zweiten Frontsensor 103b, den ersten Frontsensor 101c, den zweiten Frontsensor 103c oder den Hecksensor 105c zur Validierung vorgenommen werden, wobei jeder der anderen Sensoren während der Validierungsmessung als ein Referenzsensor fungiert. Nicht alle der Sensoren des Sensorfusionsnetzwerks können für eine bestimmte Validierungsmessung genutzt werden. Beispielsweise können sich der erste Frontsensor 101c und der zweite Frontsensor 103c nicht in einer Position befinden, um das Straßenschild 201 genau zu detektieren, und ein Hecksensor 105c befindet sich möglicherweise nicht in Position, um den Fußgänger 203 genau zu detektieren. Der Koordinierprozessor 211 nutzt diese Sensoren somit möglicherweise nicht für Daten im Hinblick auf Messungen, von denen bekannt ist, dass sie unpassend positioniert sind.
  • Nachdem die Detektionsoperation mit den passenden Sensoren abgeschlossen wurde, kann der Koordinierprozessor 211 einen Algorithmus zum Erzeugen von Koordinierte- Validierung-Daten, die ein Detektionsergebnis für jedes der Objekte angeben, nutzen. Der Algorithmus kann die Form eines Mehrheitsabstimmung-Algorithmus annehmen. Beispielsweise kann sich der Koordinierprozessor beim Detektieren des Straßenschilds 201 auf den zweiten Frontsensor 103a, den ersten Frontsensor 101b und den zweiten Frontsensor 103b verlassen. Falls beliebige zwei der drei Sensoren ein positives Detektionsergebnis liefern, kann der Koordinierprozessor 211 Koordinierte-Validierung-Daten, die eine positive Detektion angeben, erzeugen.
  • Bei manchen Ausführungsformen können Vertrauensdaten erzeugt werden, die mit jedem der Sensoren, die der Koordinierprozessor 211 während einer Validierungsmessung nutzt, verknüpft sind. Von einem bestimmten Sensor gemeldete höhere Vertrauenswerte können eine höhere Gewichtung dieses Ergebnisses in dem Algorithmus erzielen, wenn die Koordinierte- Validierung-Daten erzeugt werden. Beispielsweise kann in einer Validierungsmessung zum Detektieren des Fußgängers 203 der erste Frontsensor 101c ein höheres Detektionsvertrauen melden als der zweite Frontsensor 103c, aufgrund von dessen relativer Position in Bezug auf den Fußgänger 203. Somit kann der Koordinierprozessor 211 den durch den ersten Frontsensor 101c erzeugten Daten ein höheres Gewicht zuweisen, wenn der Algorithmus zum Erzeugen der Koordinierte-Validierung-Daten angewandt wird.
  • Bei manchen Ausführungsformen kann sich die Spezifikation der Sensoren unter den Sensoren unterscheiden, so dass manche Sensoren genauer oder widerstandfähiger als andere sind. Beispielsweise kann während der Validierung einer Detektion eines Straßenschilds 201 der erste Frontsensor 101b eine bessere spezifizierte Genauigkeit als der Hecksensor 105c aufweisen. Somit kann der Koordinierprozessor 211 den durch den ersten Frontsensor 101b erzeugten Daten ein höheres Gewicht zuweisen, wenn der Algorithmus zum Erzeugen der Koordinierte-Validierung-Daten angewandt wird.
  • Obgleich die abgebildete Ausführungsform drei Fahrzeuge 100, die jeweils zwei Frontsensoren und einen Hecksensor aufweisen, umfasst, können andere Ausführungsformen genutzt werden, die eine willkürliche Anzahl von von dem Subjektsensor verschiedenen kompatiblen Sensoren umfassen. Der Koordinierprozessor 211 kann betreibbar sein zum Bestimmen des Orts und der Platzierung von Sensoren innerhalb des Sensorfusionsnetzwerks und selektiv nur Sensoren nutzen, die sich innerhalb einer passenden Nähe befinden, um Referenzmessungen für eine Validierung zu liefern. Bei Ausführungsformen mit selektiver Nutzung von Sensoren innerhalb des Sensorfusionsnetzwerks kann ein Mehrheitsabstimmung-Algorithmus auf der Grundlage einer Mehrheit von ausgewählten Sensoren definiert sein. Übliche Beispiele für einen Mehrheitsabstimmung-Algorithmus sind einfache Mehrheiten, wie etwa 2-von-3 oder 3-von-5 Referenzsensoren. Bei manchen Ausführungsformen können andere Mehrheitsabstimmung-Algorithmen als die einfachen Mehrheiten genutzt werden, wie etwa 4-von-5 oder 8-von-10 Referenzsensoren. Andere Ausführungsformen können einen beliebigen Mehrheitsabstimmung-Algorithmus nutzen, den der Durchschnittsfachmann kennt, ohne von den hier offenbarten Lehren abzuweichen.
  • Bei manchen Ausführungsformen können andere nicht einem Fahrzeug zugehörige Sensoren zur Verwendung bei der Sensorvalidierung verfügbar sein. Solche Sensoren können an einem Objekt in der Umgebung angeordnet sein und können als Teil des Sensorfusionsnetzwerks betreibbar sein. Bei manchen Ausführungsformen kann beispielsweise ein Umgebungssensor auf dem Straßenschild 201 platziert sein und sich in Datenkommunikation mit dem Koordinierprozessor 211 befinden. Bei solchen Ausführungsformen kann der Koordinierprozessor 211 Umgebungssensoren, die insbesondere bei einer Validierungsmessung nützlich sind, ein höheres Gewicht zuweisen. Auf beispielhaftem und nicht beschränkendem Wege kann einem auf dem Straßenschild 201 angeordneten Umgebungssensor ein sehr hohes Gewicht zugewiesen werden, da der Sensor selbst als eine Angabe für das Sensorfusionsnetzwerk dient, dass das Straßenschild 201 das Objekt ist, das validiert wird. Andere Ausführungsformen können andere Umgebungssensoren aufweisen, ohne von den hier offenbarten Lehren abzuweichen.
  • Der Betrieb des Fahrzeugs 100a kann als Reaktion auf die Ergebnisse eines Validierungsprozesses eingestellt oder angepasst werden. Bei der abgebildeten Ausführungsform wird ein abgeschlossener Validierungsprozess Koordinierte-Validierung-Daten für den Fahrzeugprozessor 107a ergeben, die angeben, ob die Messungen des ersten Frontsensors 101a erfolgreich validiert wurden oder nicht. Falls die Messungen des ersten Frontsensors 101a erfolgreich validiert wurden, kann der Fahrzeugprozessor 107a eine Angabe für einen Benutzer erzeugen, dass die Validierung erfolgreich ist. Als Reaktion auf einige eine Validierung rechtfertigende Bedingungen (wie etwa unerwartete Bedingungen), kann der Fahrzeugprozessor 107a eine Angabe über die Bedingung für einen Benutzer erzeugen und kann einen Warnhinweis für den Benutzer angeben, einen Service für das Fahrzeug anzustreben. Falls die Messungen des ersten Frontsensors 101a nicht erfolgreich validiert wurden, kann der Fahrzeugprozessor 107a eine Angabe erzeugen, dass die Validierung nicht erfolgreich war. Als Reaktion auf eine nicht erfolgreiche Validierung kann der Fahrzeugprozessor 107a einen Warnhinweis für den Benutzer angeben, einen Service für das Fahrzeug anzustreben. Als Reaktion auf einige nicht erfolgreiche Validierungen kann der Fahrzeugprozessor 107a den Betrieb des Fahrzeugs 100a in einen „sicheren Zustand“ mit reduziertem Verlassen auf Sensoren, die nicht erfolgreich validiert wurden, überführen. Manche sicheren Zustände können Selbstfahrfunktionen des Fahrzeugs 100a beschränken oder vermeiden und können stattdessen größere Kontrolle an einen Fahrer des Fahrzeugs 100a abgeben, bis der Service erbracht wurde. Bei manchen Ausführungsformen kann der Fahrzeugprozessor 107a das Fahrzeug 100a in eine sichere Position auf der Straße bringen und den Betrieb des Fahrzeugs 100a stoppen. Bei manchen Ausführungsformen kann der Fahrzeugprozessor 107a mit dem Betreiben des Fahrzeugs 100a weitermachen, wobei er sich auf Validierungsmessungen von anderen Fahrzeugen in der Umgebung verlässt, und kann den Betrieb anpassen, falls sich das Fahrzeug 100a in einer Umgebung mit ausreichendem Zugriff auf lokale Teilnehmer des Sensorfusionsnetzwerks befindet, um die Umgebung sicher zu durchfahren.
  • Eine andere Funktion eines Sensorfusionsnetzwerks kann Validierung einer Trajektorie eines Fahrzeugs auf der Grundlage der Verkehrsbedingungen und der Umgebung im Hinblick auf die geplante Trajektorie sein. 3 stellt eine andere Ausführungsform eines Sensorfusionsnetzwerks während einer Vorhersage von Trajektorien von sich bewegenden Objekten dar. Bei der abgebildeten Ausführungsform planen die Fahrzeuge 100a, 100b und 100c, sich jeweils auf den Trajektorien 301a, 301b und 301c zu bewegen. Vor und während der Bewegung entlang ihrer jeweiligen Trajektorien kann jeder der Prozessoren der Fahrzeuge 100 (siehe 1) vorhersagen, ob die Trajektorie den Objekten während der Bewegung fernbleiben wird.
  • Bei der abgebildeten Ausführungsform können Prozessoren für jedes der Fahrzeuge 100 Sensoren nutzen, um Daten zu erzeugen, die zum Vorhersagen von Freiraum von Fahrtrajektorien während der Bewegung verwendet werden. Die Fahrzeuge 100b und 100c können eine Trajektorie auswählen, die entlang der aktuellen Fahrtrichtung weitergeht, wie etwa jeweils die Trajektorien 301b und 301c. Das Fahrzeug 100a kann eine Trajektorie auswählen, um Fahrspuren zu wechseln und das Fahrzeug 100c zu überholen, wie etwa Trajektorie 301a. Andere sich bewegende Objekte in der Umgebung können Komplikationen für den Abschluss der Bewegung entlang einer bestimmten Trajektorie mit sich bringen. Bei der abgebildeten Ausführungsform bewegt sich der Fußgänger 203 entlang der Trajektorie 205, um die Straße innerhalb eines Zebrastreifens zu überqueren. Jedes der Fahrzeuge 100 kann daher den Fußgänger 203 detektieren und die Trajektorie 205 vorhersagen. Falls ein Detektionsergebnis für ein Fahrzeug 100 unter einem Umstand vorgenommen wird, der Validierung rechtfertigt, kann der verknüpfte Fahrzeugprozessor 107 (siehe 1) eine Validierung initiieren. Bei der abgebildeten Ausführungsform kann der Fahrzeugprozessor 107 des Validierung initiierenden Subjektfahrzeugs die Funktionen eines Koordinierprozessors, wie etwa des Koordinierprozessors 211, durchführen (siehe 2). Andere Ausführungsformen können einen dedizierten Koordinierprozessor, wie etwa den Koordinierprozessor 211 umfassen, ohne von den hier offenbarten Lehren abzuweichen.
  • Bei der abgebildeten Ausführungsform umfasst jedes der Fahrzeuge 100 einen Teil des Sensorfusionsnetzwerks und kann betreibbar sein zum gemeinsamen Nutzen von deren Position und Trajektorie mit anderen Fahrzeugen innerhalb des Sensorfusionsnetzwerks. Solche gemeinsam genutzten Informationen können zum Verbessern der Genauigkeit von Trajektorienvorhersagen genutzt werden. Falls für die Trajektorie 301a und die Trajektorie 301b vorhergesagt wird, dass sie zu einer Kollision zwischen den Fahrzeugen 100a und 100b führen, können beispielsweise bei der abgebildeten Ausführungsform eines oder beide der Fahrzeuge 100a und 100b stattdessen ihre Manöver abändern, um eine Kollision zu vermeiden. Manöver können hinsichtlich Geschwindigkeit, Richtung oder Timing der Trajektorie abgeändert werden. Beispielsweise kann das Fahrzeug 100b verzögern, während es entlang der Trajektorie 301b manövriert, um es dem Fahrzeug 100a zu erlauben, entlang der Trajektorie 301a sicher die Fahrspuren zu wechseln. Bei anderen Szenarien können die Trajektorien auf eine andere Trajektorie gewechselt werden, um eine Kollision zu vermeiden.
  • Gleichermaßen kann der Fahrzeugprozessor 107a die Position des Fußgängers 203 bei Abschluss eines Manövers entlang der Trajektorie 301a vorhersagen. Falls die Vorhersage eine Kollision von Fahrzeug 100a mit dem Fußgänger 203 angibt, kann die Trajektorie 301a abgeändert werden, um eine Kollision zu vermeiden. Beispielsweise kann das Fahrzeug 100a das Fahrspurwechselmanöver so lange verzögern, bis es den Fußgänger 203 sicher passiert hat.
  • Bei manchen Ausführungsformen können die Trajektorienvorhersagen und Validierungen auf der Grundlage von anderen Objekten in der Umgebung berechnet werden, ohne von den hier offenbarten Lehren abzuweichen. Trajektorienvorhersagen und Validierungen können stationäre Objekte oder sich bewegende Objekte einschließen, ohne von den hier offenbarten Lehren abzuweichen.
  • 4 stellt ein Ablaufdiagramm dar, das ein Verfahren für Objektvalidierung bereitstellt. Dieses Verfahren kann nach Bestimmung einer Bedingung, die Validierung von einem oder mehreren Sensoren innerhalb eines Sensorfusion-Netzwerksystems gewährleistet, genutzt werden. In Schritt 400 wird eine Reihe von anderen Sensoren als der Subjektsensor als die Referenzsensoren für die Validierungsoperation definiert. Diese Referenzsensoren können zum Erzeugen von Objektdaten geeignet sein. Objektdaten können Objektstatusdaten umfassen, die angeben, ob ein Objekt detektiert wurde, und können ferner Vertrauensdaten beinhalten, die mit den Objektstatusdaten verknüpft sind, die das Vertrauensniveau für jede verknüpfte Messung angeben. Objektstatusdaten können interpretiert werden, das Vorhandensein eines Objekts anzugeben und Vertrauensdaten können interpretiert werden, die Wahrscheinlichkeit anzugeben, dass die positive Detektion des Vorhandenseins korrekt ist. Andere Objektstatusdaten können dynamische Attribute eines detektierten Objekts, wie etwa Geschwindigkeit, Richtung, Beschleunigung oder relative Position umfassen, ohne von den hier offenbarten Lehren abzuweichen. Andere Objektstatusdaten können Identifizierungsattribute eines detektierten Objekts, wie etwa messbare Abmessungen, Farbe, Objektklassifizierungen, Bezug zum Sensorfusionsnetzwerk oder beliebige andere Identifizierungsattribute umfassen, ohne von den hier offenbarten Lehren abzuweichen.
  • Bei Schritt 402 wird jeder der Referenzsensoren zum Durchführen einer Validierungsmessung verwendet und erzeugt Objektdaten. Nachdem jeder der Referenzsensoren Objektdaten erzeugt hat, werden die Objektdaten in Schritt 404 gesammelt und von einem Algorithmus zum Berechnen der Koordinierte-Validierung-Daten verwendet, die ein koordiniertes Detektionsergebnis für ein Objekt angeben. Der Algorithmus von Schritt 404 kann Gewichten von Objektdaten auf der Grundlage der Spezifikation, Nähe, Position oder anderen Sensorcharakteristika, die zum Erzeugen von jeweiligen Objektdaten von jedem Sensor verwendet werden, nutzen. Nachdem der Algorithmus abgeschlossen wurde, können die Koordinierte-Validierung-Daten in Schritt 406 erzeugt werden, die ein Validierungsergebnis für Objektdetektion des Subjektsensors angeben.
  • Bei der abgebildeten Ausführungsform kann der Algorithmus von Schritt 404 einen Mehrheitsabstimmung-Algorithmus umfassen, wobei allerdings andere Ausführungsformen andere Algorithmen umfassen können, ohne von den hierin offenbarten Lehren abzuweichen.
  • Bei der abgebildeten Ausführungsform kann das Verfahren von 4 durch einen Prozessor als Reaktion auf auf einem computerlesbaren Medium gespeicherte computerlesbare Anweisungen ausgeführt werden. Computerlesbare Anweisungen können Anweisungen und Daten beinhalten, die einen Allzweckcomputer, einen Sonderzweckprozessor oder eine Sonderzweckverarbeitungsvorrichtung veranlassen, eine gewisse Funktion oder eine Gruppe von Funktionen durchzuführen. Computerausführbare Anweisungen können auch Programmmodule beinhalten, die durch Computer in eigenständigen oder Netzwerkumgebungen ausgeführt werden. Programmmodule können Routinen, Programme, Objekte, Komponenten oder Datenstrukturen beinhalten, die gewisse Aufgaben durchführen oder gewisse abstrakte Datenarten implementieren. Computerausführbare Anweisungen, verknüpfte Datenstrukturen und Programmodule repräsentieren Beispiele für das Programmcodemittel zum Ausführen der Schritte der hier offenbarten Verfahren. Die besondere Abfolge solcher ausführbarer Anweisungen oder verknüpfter Datenstrukturen repräsentiert Beispiele für entsprechende Handlungen zum Implementieren der in solchen Schritten beschriebenen Funktionen. Ein computerlesbares Medium kann als ein nichttransitorisches computerlesbares Speichermedium oder ein maschinenlesbares Medium zum Führen oder Aufweisen von computerausführbaren Anweisungen oder darauf gespeicherten Datenstrukturen umgesetzt sein. Solche nichttransitorischen computerlesbaren Speichermedien oder maschinenlesbare Medien können beliebige verfügbare Medien sein, die in einer nichttransitorischen Hardware oder einer physischen Form, auf die von einem Allzweck- oder Sonderzweckprozessor zugegriffen werden kann, umgesetzt sind. Beispielhaft und nicht einschränkend können solche nichttransitorischen computerlesbaren Speichermedien oder maschinenlesbare Medien Direktzugriffsspeicher (RAM), Nurlesespeicher (ROM), elektrisch löschbaren programmierbaren Nurlesespeicher (EEPROM), optische Plattenspeicher, magnetische Plattenspeicher, lineare magnetische Datenspeicher, Magnet-Speichervorrichtungen, Flash-Speicher oder ein beliebiges anderes Medium, das zum Führen oder Speichern gewünschter Programmcodemittel in der Form von computerausführbaren Anweisungen oder Datenstrukturen verwendet werden kann, umfassen. Kombinationen des Obigen sollten auch innerhalb des Schutzumfangs der nichttransitorischen computerlesbaren Speichermedien oder der maschinenlesbaren Medien enthalten sein.

Claims (14)

  1. Fahrzeugsensorvalidierungssystem, das Folgendes umfasst: einen Koordinierprozessor, der betreibbar ist für Datenkommunikation mit einer Reihe von Fahrzeugen, ein Sensorfusionsnetzwerk, das mehrere Sensoren umfasst, die sich jeweils in Datenkommunikation mit dem Koordinierprozessor befinden, und das mehrere Ortssensoren umfasst, die jeweils betreibbar sind, eine Position von einem der mehreren Sensoren anzuzeigen, wobei das Sensorfusionsnetzwerk mindestens einen ersten Sensor, betreibbar zum Erzeugen von ersten Daten, und einen zweiten Sensor, betreibbar zum Erzeugen von zweiten Daten, und einen dritten Sensor, betreibbar zum Erzeugen von dritten Daten umfasst, wobei der erste Sensor mit einem ersten Fahrzeug der Reihe von Fahrzeugen verknüpft ist, die ersten Daten einen ersten Detektionsstatus eines Objekts angeben, die zweiten Daten einen zweiten Detektionsstatus des Objekts angeben und die dritten Daten einen dritten Detektionsstatus des Objekts angeben, und wobei der Koordinierprozessor betreibbar ist zum Erzeugen von koordinierten Daten auf der Grundlage der ersten Daten, der zweiten Daten und der dritten Daten, und den Relativpositionen des zweiten Sensors und dritten Sensors bezüglich des ersten Sensors, wobei die koordinierten Daten einen gewichteten Detektionsstatus des Objekts umfassen und wobei die koordinierten Daten unter Verwendung eines Mehrheitsabstimmung-Algorithmus auf der Grundlage der ersten Daten, der zweiten Daten und der dritten Daten erzeugt werden, und wobei die ersten Daten einen ersten Vertrauenswert umfassen und die zweiten Daten einen zweiten Vertrauenswert und die dritten Daten einen dritten Vertrauenswert umfassen und wobei der gewichtete Detektionsstatus erzeugt wird unter Verwendung des ersten, zweiten und dritten Vertrauenswertes als Gewichtsfaktoren.
  2. System nach Anspruch 1, wobei der zweite Sensor mit dem ersten Fahrzeug und der dritte Sensor mit einem zweiten Fahrzeug der Reihe von Fahrzeugen verknüpft ist.
  3. System nach Anspruch 1, wobei der zweite Sensor mit einem zweiten Fahrzeug verknüpft ist und der dritte Sensor mit einem dritten Fahrzeug der Reihe von Fahrzeugen verknüpft ist.
  4. System nach Anspruch 1 wobei der Koordinierprozessor ein Neuronales Netz umfasst, das betreibbar ist zum Identifizieren, ob eine potentielle Trajektorie des ersten Fahrzeugs frei von Hindernissen ist.
  5. System nach Anspruch 1, wobei der Koordinierprozessor betreibbar ist zum dynamischen Definieren des Sensorfusionsnetzwerks als eine Untermenge der mehreren Sensoren gemäß der Nähe von jedem der mehreren Sensoren des ersten Fahrzeugs.
  6. System nach Anspruch 1, wobei der Koordinierprozessor betreibbar ist zum Detektieren einer potentiellen Fehlerbedingung in dem ersten Sensor.
  7. System nach Anspruch 1, wobei jeder Sensor der mehreren Sensoren in dem Sensorfusionsnetzwerk eine spezifizierte Genauigkeit aufweist und der Koordinierprozessor betreibbar ist zum dynamischen Definieren des Sensorfusionsnetzwerks als eine Untermenge der mehreren Sensoren auf der Grundlage der spezifizierten Genauigkeit von jedem Sensor.
  8. System nach Anspruch 7, wobei der Koordinierprozessor betreibbar ist zum Auswählen von Sensoren zum Einschluss in ein Sensorfusionsnetzwerk auf der Grundlage einer minimalen spezifizierten Genauigkeit.
  9. System nach Anspruch 1, wobei der erste Sensor eine Sensorart umfasst, die aus einer Gruppe von Sensorarten ausgewählt ist, die einen Radarsensor, einen Lidarsensor, einen Näherungssensor, einen Kamerasensor, einen Infrarotsensor, einen Ultraviolettsensor, einen Ultraschallsensor oder einen Schallsensor umfasst.
  10. System nach Anspruch 9, wobei der zweite Sensor eine andere Sensorart als der erste Sensor umfasst.
  11. Verfahren zur Objektvalidierung unter Nutzung eines Sensorfusionsnetzwerks, umfassend mehrere Sensoren, wobei mindestens ein erster Sensor mit einem ersten Fahrzeug verknüpft ist, wobei das Verfahren Folgendes umfasst: Erzeugen von ersten Objektdaten, die einen ersten Objektstatus und einen ersten Vertrauenswert des ersten Objektstatus auf der Grundlage einer Freiraummessung des ersten Sensors umfassen; Erzeugen von zweiten Objektdaten, die einen zweiten Objektstatus und einen zweiten Vertrauenswert des zweiten Objektstatus auf der Grundlage einer Freiraummessung eines zweiten Sensors der mehreren Sensoren umfassen; und Erzeugen von Koordinierte-Validierung-Daten, die einen koordinierten Objektstatus angeben, der unter Verwendung der ersten Objektdaten und der zweiten Objektdaten erzeugt wurde, wobei die Koordinierte-Validierung-Daten als Reaktion auf einen Mehrheitsabstimmung-Algorithmus erzeugt werden, der mindestens die ersten Objektdaten, die zweiten Objektdaten und die dritten Objektdaten als Eingaben nutzt, und wobei der Mehrheitsabstimmung-Algorithmus die Trajektorienmachbarkeitsdaten unter Verwendung von Gewichtsfaktoren erzeugt, wobei die Gewichtsfaktoren auf dem ersten Vertrauenswert, dem zweiten Vertrauenswert und dem dritten Vertrauenswert basieren.
  12. Verfahren nach Anspruch 11, wobei der zweite Sensor mit einem zweiten Fahrzeug verknüpft ist.
  13. Verfahren nach Anspruch 12, ferner umfassend Erzeugen von dritten Hindernisdaten, die einen dritten Objektstatus und einen dritten Vertrauenswert des dritten Objektstatus auf der Grundlage einer Freiraummessung der potentiellen Trajektorie durch einen dritten Sensor umfassen, und Erzeugen der Koordinierte-Validierung-Daten unter Verwendung der ersten Objektdaten, der zweiten Objektdaten und der dritten Objektdaten, wobei der dritte Sensor mit einem dritten Fahrzeug verknüpft ist.
  14. Verfahren nach Anspruch 11, wobei die Koordinierte-Validierung-Daten ferner einen koordinierten Vertrauenswert angeben, der mit dem koordinierten Objektstatus verknüpft ist.
DE102019216989.9A 2018-11-05 2019-11-05 Fahrzeugsensorvalidierungssystem und Verfahren zur Objektvalidierung Active DE102019216989B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/180,183 US11260876B2 (en) 2018-11-05 2018-11-05 Inter-vehicle sensor validation using senso-fusion network
US16/180,183 2018-11-05

Publications (2)

Publication Number Publication Date
DE102019216989A1 DE102019216989A1 (de) 2020-05-07
DE102019216989B4 true DE102019216989B4 (de) 2024-09-26

Family

ID=70458293

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019216989.9A Active DE102019216989B4 (de) 2018-11-05 2019-11-05 Fahrzeugsensorvalidierungssystem und Verfahren zur Objektvalidierung

Country Status (2)

Country Link
US (1) US11260876B2 (de)
DE (1) DE102019216989B4 (de)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020203829A1 (de) * 2020-03-25 2021-09-30 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Überwachen eines Fahrzeugsystems zum Erkennen einer Umgebung eines Fahrzeugs
KR102384525B1 (ko) * 2020-07-09 2022-04-08 엘지전자 주식회사 이동로봇의 제어방법
DE102021206297A1 (de) 2021-06-18 2022-12-22 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und System zum Betreiben eines wenigstens teilweise automatisierten Fahrzeugs
CN113844463B (zh) * 2021-09-26 2023-06-13 国汽智控(北京)科技有限公司 基于自动驾驶系统的车辆控制方法、装置及车辆
CN117795579A (zh) * 2021-12-02 2024-03-29 华为技术有限公司 一种数据融合方法、装置、设备、存储介质、车辆

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130282200A1 (en) 2008-09-11 2013-10-24 Deere & Company Multi-Vehicle High Integrity Perception
US20150254986A1 (en) 2014-03-04 2015-09-10 Google Inc. Reporting Road Event Data and Sharing with Other Vehicles
US20170124781A1 (en) 2015-11-04 2017-05-04 Zoox, Inc. Calibration for autonomous vehicle operation
DE102016003969A1 (de) 2016-04-01 2017-10-05 Audi Ag Verfahren zum Erfassen von Umgebungsdaten mittels mehrerer Kraftfahrzeuge
DE102017126877A1 (de) 2016-11-17 2018-05-17 Gm Global Technology Operations, Llc Automatisierte Copilot-Steuerung für autonome Fahrzeuge

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9612213B2 (en) * 2014-05-08 2017-04-04 Honeywell Asca Inc. Automatic z-correction for basis weight sensors
JP6424761B2 (ja) * 2014-11-07 2018-11-21 株式会社デンソー 運転支援システム及びセンタ
DE102016207836A1 (de) * 2016-05-06 2017-11-09 Robert Bosch Gmbh Verfahren und System zum Aktualisieren der Software eines Kraftfahrzeug-Sensors
US10558224B1 (en) * 2017-08-10 2020-02-11 Zoox, Inc. Shared vehicle obstacle data
WO2019152888A1 (en) * 2018-02-02 2019-08-08 Nvidia Corporation Safety procedure analysis for obstacle avoidance in autonomous vehicle
US10890920B2 (en) * 2018-02-15 2021-01-12 Aptiv Technologies Limited Vehicle map-data gathering system and method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130282200A1 (en) 2008-09-11 2013-10-24 Deere & Company Multi-Vehicle High Integrity Perception
US20150254986A1 (en) 2014-03-04 2015-09-10 Google Inc. Reporting Road Event Data and Sharing with Other Vehicles
US20170124781A1 (en) 2015-11-04 2017-05-04 Zoox, Inc. Calibration for autonomous vehicle operation
DE102016003969A1 (de) 2016-04-01 2017-10-05 Audi Ag Verfahren zum Erfassen von Umgebungsdaten mittels mehrerer Kraftfahrzeuge
DE102017126877A1 (de) 2016-11-17 2018-05-17 Gm Global Technology Operations, Llc Automatisierte Copilot-Steuerung für autonome Fahrzeuge

Also Published As

Publication number Publication date
DE102019216989A1 (de) 2020-05-07
US11260876B2 (en) 2022-03-01
US20200139981A1 (en) 2020-05-07

Similar Documents

Publication Publication Date Title
DE102019216989B4 (de) Fahrzeugsensorvalidierungssystem und Verfahren zur Objektvalidierung
DE102018120845B4 (de) Verfahren und Vorrichtung zum Überwachen eines autonomen Fahrzeugs
EP3292423B1 (de) Diagnoseverfahren für einen sichtsensor eines fahrzeugs und fahrzeug mit einem sichtsensor
DE102018115813A1 (de) Verfahren und systeme zum lokalisieren eines fahrzeugs
DE102017122897A1 (de) Fahrzeugunterstützung
DE102016212195A1 (de) Verfahren zum Durchführen eines automatischen Eingriffs in die Fahrzeugführung eines Fahrzeugs
EP3160813A2 (de) Verfahren zur erstellung eines umfeldmodells eines fahrzeugs
DE102016212326A1 (de) Verfahren zur Verarbeitung von Sensordaten für eine Position und/oder Orientierung eines Fahrzeugs
DE102018101487A1 (de) Systeme und verfahren zur kollisionsvermeidung
EP3024709B1 (de) Effizientes bereitstellen von belegungsinformationen für das umfeld eines fahrzeugs
DE102018100487A1 (de) Objektverfolgung durch unüberwachtes lernen
EP3729138B1 (de) Verfahren zur satellitengestützten ermittlung einer position eines fahrzeugs
WO2019233777A1 (de) Fahrassistenzsystem
DE102017118808A1 (de) Verfahren und Systeme für Fahrzeugpositionierungs-Rückmeldung
DE102017129501A1 (de) Autonome Kraftfahrzeug-Objekterkennung
DE102021128041A1 (de) Verbesserung eines neuronalen fahrzeugnetzwerks
DE102021114614A1 (de) Falschfahrterkennung und kollisionsabschwächung
DE112022003364T5 (de) Komplementäres steuersystem für ein autonomes fahrzeug
DE102020215048A1 (de) Fahrzeug und verfahren zur steuerung derselben
DE102021209173A1 (de) Autonomes Fahrsystem und Verfahren davon zur Erzeugung einer detaillierten Karte
DE102021205243A1 (de) Künstliche verfälschung von sensordaten zum auslösen einer sicherheitsmassnahme für ein autonomes fahrzeug
DE102021202778A1 (de) Verfahren und System zum Bearbeiten einer digitalen Sicherheitskarte für den Straßenverkehr
DE102020202476A1 (de) Verfahren und Vorrichtung zum Schätzen mindestens eines Objektzustandes eines beweglichen Objektes im Umfeld eines Fahrzeugs
DE102022212890A1 (de) Verfahren, Steuergerät und Computerprogramm zum Vermeiden oder Vermindern einer Kollision eines autonomen Kraftfahrzeugs mit einem Objekt und computerlesbares Speichermedium
DE102014209628A1 (de) Assistenzvorrichtung und Assistenzverfahren zur Routenführung eines Fahrzeugs

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: ISARPATENT - PATENT- UND RECHTSANWAELTE BARTH , DE

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R082 Change of representative