DE102018120845A1 - Verfahren und Vorrichtung zum Überwachen eines autonomen Fahrzeugs - Google Patents

Verfahren und Vorrichtung zum Überwachen eines autonomen Fahrzeugs Download PDF

Info

Publication number
DE102018120845A1
DE102018120845A1 DE102018120845.6A DE102018120845A DE102018120845A1 DE 102018120845 A1 DE102018120845 A1 DE 102018120845A1 DE 102018120845 A DE102018120845 A DE 102018120845A DE 102018120845 A1 DE102018120845 A1 DE 102018120845A1
Authority
DE
Germany
Prior art keywords
spatial environment
driving scenario
vehicle
data
perceptual module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102018120845.6A
Other languages
English (en)
Other versions
DE102018120845B4 (de
Inventor
Shengbing Jiang
Mutasim A. Salman
Yilu Zhang
Shiming Duan
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102018120845A1 publication Critical patent/DE102018120845A1/de
Application granted granted Critical
Publication of DE102018120845B4 publication Critical patent/DE102018120845B4/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/04Monitoring the functioning of the control system
    • B60W50/045Monitoring control system parameters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D21/00Measuring or testing not otherwise provided for
    • G01D21/02Measuring two or more variables by means not covered by a single other subclass
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0055Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot with safety arrangements
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0088Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/04Monitoring the functioning of the control system
    • B60W50/045Monitoring control system parameters
    • B60W2050/046Monitoring control system parameters involving external transmission of data to or from the vehicle, e.g. via telemetry, satellite, Global Positioning System [GPS]

Abstract

Ein Wahrnehmungsmodul eines Raumüberwachungssystems zum Überwachen und Charakterisieren einer räumlichen Umgebung in der Nähe eines autonomen Fahrzeugs wird beschrieben. Ein Verfahren zum Auswerten des Wahrnehmungsmoduls beinhaltet das Erfassen und Speichern einer Vielzahl von Datenrahmen, die einem Fahrszenario für das autonome Fahrzeug zugeordnet sind, und das Ausführen des Wahrnehmungsmoduls zum Bestimmen einer tatsächlichen räumlichen Umgebung für das Fahrszenario, wobei die tatsächliche räumliche Umgebung für das Fahrszenario in der Steuerung gespeichert ist. Das Wahrnehmungsmodul wird ausgeführt, um eine geschätzte räumliche Umgebung für das Fahrszenario basierend auf den gespeicherten Datenrahmen des Fahrszenarios zu bestimmen, und die geschätzte räumliche Umgebung wird mit der tatsächlichen räumlichen Umgebung für das Fahrszenario verglichen. Basierend auf dem Vergleich wird ein erster Leistungsindex für das Wahrnehmungsmodul ermittelt und ein Fehler kann erkannt werden.

Description

  • EINLEITUNG
  • Autonome Fahrzeuge können bordeigene Überwachungssysteme beinhalten, um das Auftreten eines Fehlers oder einen anderen Hinweis auf die Notwendigkeit eines Service und/oder einer Fahrzeugwartung zu erkennen.
  • KURZDARSTELLUNG
  • Es wird ein autonomes Fahrzeugsteuerungssystem beschrieben, das ein Wahrnehmungsmodul eines Raumüberwachungssystems beinhaltet, das zum Überwachen und Charakterisieren einer räumlichen Umgebung in der Nähe des autonomen Fahrzeugs ausgeführt wird. Eine Steuerung steht in Verbindung mit dem Raumüberwachungs-Subsystem, wobei die Steuerung einen Prozessor und eine Speichervorrichtung mit einem Befehlssatz beinhaltet. Ein Verfahren zum Auswerten des Wahrnehmungsmoduls beinhaltet das Erfassen und Speichern einer Vielzahl von Datenrahmen, die einem Fahrszenario für das autonome Fahrzeug zugeordnet sind, und das Ausführen des Wahrnehmungsmoduls zum Bestimmen einer tatsächlichen räumlichen Umgebung für das Fahrszenario, wobei die tatsächliche räumliche Umgebung für das Fahrszenario in der Steuerung gespeichert ist. Das Wahrnehmungsmodul wird ausgeführt, um eine geschätzte räumliche Umgebung für das Fahrszenario basierend auf den gespeicherten Datenrahmen des Fahrszenarios zu bestimmen, und die geschätzte räumliche Umgebung wird mit der tatsächlichen räumlichen Umgebung für das Fahrszenario verglichen. Ein erster Leistungsindex für das Wahrnehmungsmodul wird basierend auf dem Vergleich der geschätzten räumlichen Umgebung mit der tatsächlichen räumlichen Umgebung ermittelt und ein Fehler im Wahrnehmungsmodul basierend auf dem ersten Leistungsindex erkannt. Das Auftreten der Störung wird an eine Servicestelle gemeldet.
  • Ein Aspekt der Offenbarung beinhaltet das Bestimmen des ersten Leistungsindex basierend auf korrekt erkannten Objekten, unerkannten Objekten und falsch erkannten Objekten in der geschätzten räumlichen Umgebung im Vergleich zur tatsächlichen räumlichen Umgebung.
  • Ein weiterer Aspekt der Offenbarung beinhaltet das autonome Fahrzeug mit einer Vielzahl von Raumsensoren und einer GPS-Ortungsvorrichtung in Verbindung mit dem Wahrnehmungsmodul, worin das Verfahren ferner das dynamische Überwachen der Dateneingaben von der GPS-Ortungsvorrichtung und den Raumsensoren und das Bestimmen, dass das autonome Fahrzeug im Fahrszenario basierend auf den Dateneingaben von der GPS-Ortungsvorrichtung betrieben wird. Das Wahrnehmungsmodul ermittelt eine zweite wahrgenommene räumliche Umgebung für das Fahrszenario basierend auf den dynamisch überwachten Dateneingaben der Raumsensoren, während die zweite wahrgenommene räumliche Umgebung für das Fahrszenario mit der tatsächlichen räumlichen Umgebung für das Fahrszenario verglichen wird. Ein zweiter Leistungsindex für das Wahrnehmungsmodul wird aus dem Vergleich der wahrgenommenen räumlichen Umgebung und der gespeicherten tatsächlichen räumlichen Umgebung für das Fahrszenario ermittelt, und ein Fehler im Wahrnehmungsmodul wird aus dem zweiten Leistungsindex ermittelt.
  • Ein weiterer Aspekt der Offenbarung beinhaltet das dynamische Überwachen der Dateneingaben von der GPS-Ortungsvorrichtung und den Raumsensoren, das Bestimmen, dass das autonome Fahrzeug im Fahrszenario basierend auf den Dateneingaben von der GPS-Ortungsvorrichtung arbeitet und das dynamische Überwachen der Dateneingaben von den Raumsensoren. Das Verfahren beinhaltet das Ermitteln, über das Wahrnehmungsmodul, einer zweiten wahrgenommenen räumlichen Umgebung für das Fahrszenario basierend auf den dynamisch überwachten Dateneingaben der Raumsensoren und das Ermitteln, über ein zweites Fahrzeug, das zufällig im gleichen Fahrszenario betrieben wird, einer zweiten tatsächlichen räumlichen Umgebung für das Fahrszenario. Die zweite wahrgenommene räumliche Umgebung wird mit der zweiten tatsächlichen räumlichen Umgebung für das Fahrszenario verglichen, und ein dritter Leistungsindex für das Wahrnehmungsmodul wird basierend auf dem Vergleich der dritten wahrgenommenen räumlichen Umgebung mit der tatsächlichen räumlichen Umgebung ermittelt. Basierend auf dem dritten Leistungsindex wird ein Fehler im Wahrnehmungsmodul ermittelt.
  • Ein weiterer Aspekt der Offenbarung ist das Fahrszenario, das einem geografischen Standort zugeordnet ist.
  • Ein weiterer Aspekt der Offenbarung beinhaltet die Vielzahl der Eingaben in das Wahrnehmungsmodul, die fahrdynamische Daten, Kartendaten und räumliche Umgebungsdaten für das Fahrszenario sind, worin das Erfassen und Speichern einer Vielzahl von Datenrahmen, die einem Fahrszenario für das autonome Fahrzeug zugeordnet sind, das periodische Erfassen und Speichern von fahrdynamischen Daten, Kartendaten und räumlichen Umgebungsdaten während des Fahrszenarios umfasst.
  • Ein weiterer Aspekt der Offenbarung beinhaltet das Wahrnehmungsmodul, das zum Überwachen der Eingabe eines Raumsensors konfiguriert ist, der zum Überwachen der räumlichen Umgebung in der Nähe des Fahrzeugs angeordnet ist.
  • Ein weiterer Aspekt der Offenbarung beinhaltet den Raumsensor als Kamera, eine Radarvorrichtung oder eine Lidarvorrichtung.
  • Ein weiterer Aspekt der Offenbarung beinhaltet das Bestimmen des ersten Leistungsindex basierend auf korrekt erkannten Objekten, unerkannten Objekten und falsch erkannten Objekten in der geschätzten räumlichen Umgebung im Vergleich zur tatsächlichen räumlichen Umgebung.
  • Die genannten Merkmale und Vorteile sowie weitere Merkmale und Vorteile der vorliegenden Lehren, gehen aus der folgenden ausführlichen Beschreibung von einigen der besten Arten und anderen Ausführungsformen zur Ausführung der vorliegenden Lehren, wie sie in den beigefügten Ansprüchen definiert sind, unter Bezugnahme auf die zugehörigen Zeichnungen deutlich hervor.
  • Figurenliste
  • Im Folgenden werden exemplarisch eine oder mehrere Ausführungen mit Bezug auf die zugehörigen Zeichnungen beschrieben, in welchen gilt:
    • 1 stellt schematisch ein Fahrzeug einschließlich eines autonomen Fahrzeugsteuerungssystems und zugehöriger Steuerungen gemäß der Offenbarung dar; und
    • 2 veranschaulicht eine isometrische Darstellung einer räumlichen Umgebung an einem geografischen Standort, worin die räumliche Umgebung benachbart zu einer Ausführungsform des mit Bezug auf 1 beschriebenen autonomen Fahrzeugs ist, gemäß der Offenbarung;
    • 3 stellt schematisch ein Informationsflussdiagramm zum Ausführen einer Offline-Auswertung eines Wahrnehmungsmoduls dar, das an einem autonomen Fahrzeug gemäß der Offenbarung eingesetzt wird;
    • 4 stellt schematisch eine Ausführungsform eine
    • 5 stellt schematisch ein Informationsflussdiagramm zum Ausführen einer dynamischen Auswertung des Wahrnehmungsmoduls gemäß der Offenbarung dar; und
    • 6 stellt schematisch die Ausführungsform einer Routine zur dynamischen Auswertung des Wahrnehmungsmoduls dar, wobei die darin gespeicherten oder von anderen Vorrichtungen, entweder im Fahrzeug oder außerhalb des Fahrzeugs, zur Verfügung gestellten Informationen gemäß der Offenbarung verwendet werden.
  • Es versteht sich, dass die beigefügten Zeichnungen nicht notwendigerweise maßstabsgetreu sind und eine etwas vereinfachte Darstellung verschiedener bevorzugter Merkmale der vorliegenden Offenbarung, wie hierin offenbart, einschließlich beispielsweise spezifischer Dimensionen, Orientierungen, Orte und Formen, darstellen. Details, die zu solchen Merkmalen gehören, werden teilweise durch die bestimmte beabsichtigte Anwendungs- und Verwendungsumgebung ermittelt.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Die Komponenten der offenbarten Ausführungsformen, die hierin beschrieben und veranschaulicht sind, können in einer Vielfalt von verschiedenen Konfigurationen angeordnet und konstruiert sein. Daher ist die folgende ausführliche Beschreibung der Ausführungsformen nicht dazu gedacht, den Umfang der Offenbarung, wie beansprucht, einzuschränken, sondern sie ist lediglich repräsentativ für mögliche Ausführungsformen davon. Obwohl zahlreiche spezielle Einzelheiten in der folgenden Beschreibung dargelegt werden, um ein gründliches Verständnis der hierin offenbarten Ausführungsformen bereitzustellen, können zudem einige Ausführungsformen ohne einige dieser Details in die Praxis umgesetzt werden. Darüber hinaus wurde zum Zwecke der Klarheit technisches Material, das im entsprechenden Stand der Technik verstanden wird, nicht ausführlich beschrieben, um ein unnötiges Verschleiern der Offenbarung zu vermeiden. Darüber hinaus kann die Offenbarung, wie hierin veranschaulicht und beschrieben, in Abwesenheit eines Elements ausgeführt werden, das hierin nicht ausdrücklich offenbart ist.
  • Unter Bezugnahme auf die Zeichnungen, in denen gleiche Referenznummern gleichartigen oder ähnlichen Komponenten in den verschiedenen Figuren entsprechen, veranschaulicht 1 in Übereinstimmung mit den hierin offenbarten Ausführungsformen ein Fahrzeug 10, das ein autonomes Fahrzeugsteuerungssystem 20 und eine zugehörige Fahrzeugzustandsüberwachungs-(VHM)-Steuerung 120 aufweist, die veranschaulichend für die hierin beschriebenen Konzepte ist. Das Fahrzeug 10 beinhaltet in einer Ausführungsform einen vierradangetriebenen Personenkraftwagen mit lenkbaren Vorderrädern und festen Hinterrädern. Das Fahrzeug 10 kann, mittels nicht beschränkender Beispiele, ein Personenkraftwagen, ein leichtes oder schweres Nutzfahrzeug, ein Mehrzweckfahrzeug, eine landwirtschaftliches Fahrzeug, ein Industriefahrzeug/ Lagerhaus-Fahrzeug oder ein Freizeit-Geländefahrzeug sein.
  • Wie hierin verwendet, beinhaltet das autonome Fahrzeugsteuerungssystem 20 ein fahrzeugseitiges Steuersystem, das in der Lage ist, einen gewissen Grad an Fahrautomatisierung zu bieten. Die Begriffe ‚Fahrer‘ und ‚Bediener‘ beschreiben die Person, die für das Steuern des Betriebs des Fahrzeugs 10 verantwortlich ist, unabhängig davon, ob sie aktiv an der Steuerung einer oder mehrerer Fahrzeugfunktionen oder an der Steuerung des autonomen Betriebs des Fahrzeugs beteiligt ist. Die Fahrautomatisierung kann eine Reihe von dynamischen Fahr- und Fahrzeugfunktionen beinhalten. Die Fahrautomatisierung kann ein gewisses Maß an automatischer Steuerung oder Eingriffen in Bezug auf eine einzelne Fahrzeugfunktion, wie beispielsweise Lenkung, Beschleunigung und/oder Bremsen, beinhalten, wobei der Fahrer ständig die gesamte Kontrolle über das Fahrzeug hat. Die Fahrautomatisierung kann ein gewisses Maß an automatischer Steuerung oder Eingriffen in Bezug auf die gleichzeitige Steuerung mehrerer Fahrzeugfunktionen, wie beispielsweise Lenkung, Beschleunigung und/oder Bremsen, beinhalten, wobei der Fahrer ständig die gesamte Kontrolle über das Fahrzeug hat. Die Fahrautomatisierung kann die gleichzeitige automatische Steuerung der Fahrfunktionen des Fahrzeugs, einschließlich Lenkung, Beschleunigung und Bremsen, beinhalten, worin der Fahrer die Kontrolle über das Fahrzeug für einen bestimmten Zeitraum während einer Fahrt abgibt. Die Fahrautomatisierung kann die gleichzeitige automatische Steuerung von Fahrfunktionen des Fahrzeugs, einschließlich Lenkung, Beschleunigung und Bremsen, beinhalten, worin der Fahrer die Kontrolle über das Fahrzeug während der gesamten Fahrt überlässt. Die Fahrautomatisierung beinhaltet Hardware und Steuerungen, die zum Überwachen der räumlichen Umgebung unter verschiedenen Fahrmodi konfiguriert sind, um verschiedene Fahraufgaben im dynamischen Betrieb auszuführen. Die Fahrautomation kann beispielsweise einen Tempomat, einen adaptiven Tempomat, eine Spurwechselwarnung, Eingriffe und Steuerungen, automatisches Einparken, Beschleunigen, Bremsen und dergleichen beinhalten.
  • Das autonome Fahrzeugsteuerungssystem 20 beinhaltet vorzugsweise ein oder eine Vielzahl von Fahrzeugsystemen und zugehöriger Steuerungen, die ein Maß an Fahrautomatisierung bieten, wobei die VHM-Steuerung 120 zum Überwachen, Prognostizieren und/oder Diagnostizieren des Betriebs des autonomen Fahrzeugsteuerungssystems 20 vorgesehen ist. Die dem autonomen Fahrzeugsteuerungssystem 20 zugeordneten Fahrzeugsysteme, Teilsysteme und Steuerungen sind zum Ausführen einer oder mehrerer Vorgänge implementiert, die mit autonomen Fahrzeugfunktionen verbunden sind, einschließlich einer adaptiven Geschwindigkeitsregelung (ACC), Spurführung und Spurhaltebetrieb, Spurwechselbetrieb, Lenkhilfebetrieb, Objektvermeidungsbetrieb, Einparkhilfebetrieb, Fahrzeugbremsbetrieb, Fahrzeuggeschwindigkeits- und Beschleunigungsbetrieb, Fahrzeugseitenbewegungsbetrieb, z. B. als Teil der Spurführung, Spurhalte- und Spurwechselbetrieb, usw. Die Fahrzeugsysteme und die zugehörigen Steuerungen des autonomen Fahrzeugsteuerungssystems 20 können als nicht einschränkende Beispiele einen Antriebsstrang 32 und eine Antriebsstrangsteuerung (PCM) 132 beinhalten; ein Lenksystem 34, ein Bremssystem 36 und ein Fahrwerksystem 38, die über eine Fahrzeugsteuerung (VCM) 136 gesteuert werden; ein Fahrzeug-Raumüberwachungssystem 40 und eine Raumüberwachungssteuerung 140, ein Mensch-Maschine-Schnittstellen-(HMI)-System 42 und eine HMI-Steuerung 142; ein HVAC-System 44 und eine zugehörige HLK-Steuerung 144; eine Bedienersteuerung 46 und eine zugehörige Bedienersteuerung 146; und ein Fahrzeugbeleuchtungs-, Beleuchtungs- und Fremdsignalisierungssystem 48 und eine zugehörige Steuerung 148.
  • Jedes der Fahrzeugsysteme und die zugehörigen Steuerungen können ferner ein oder mehrere Teilsysteme und eine zugehörige Steuerung beinhalten. Die Teilsysteme und Steuerungen sind zur einfachen Beschreibung als diskrete Elemente dargestellt. Die vorstehende Klassifizierung der Teilsysteme dient nur der Beschreibung einer Ausführungsform und ist illustrativ. Andere Konfigurationen können als innerhalb des Umfangs dieser Offenbarung in Betracht gezogen werden. Es sollte beachtet werden, dass die beschriebenen und ausgeführten Funktionen durch die diskreten Elemente mit einer oder mehreren Vorrichtungen ausgeführt werden können, die algorithmischen Code, vorbestimmte Kalibrierungen, Hardware, einen anwendungsspezifischen integrierten Schaltkreis (ASIC) und/oder externe oder cloudbasierte Computersysteme beinhalten können. Jede der vorgenannten Steuerungen beinhaltet einen VHM-Agenten, der als algorithmischer Code, Kalibrierungen, Hardware, anwendungsspezifische integrierte Schaltkreise (ASIC) oder andere Elemente implementiert und ausgeführt werden kann. Jeder der VHM-Agenten ist konfiguriert, um Komponenten- und Subsystemüberwachung, Merkmalsextraktion, Datenfilterung und Datenaufzeichnung für die zugehörige Steuerung auszuführen. Die Datenaufzeichnung kann eine periodische und/oder ereignisbasierte Datenaufzeichnung, eine Einzelzeitpunktdatenaufzeichnung und/oder eine fortlaufende Zeitpunktdatenaufzeichnung für eine bestimmte Zeitdauer, beispielsweise vor und/oder nach dem Auslösen eines Ereignisses, beinhalten. Diese Datenaufzeichnung kann durch den Einsatz von Ringspeicherpuffern oder einer anderen geeigneten Speichervorrichtung erfolgen.
  • Das PCM 132 kommuniziert mit einem Antriebsstrang 32 und ist mit diesem funktional verbunden und führt Steuerungsroutinen zum Steuern des Betriebs eines Motors und/oder Drehmomentmaschinen aus, von denen keine dargestellt sind, zum Übertragen von Vortriebsmoment an die Fahrzeugräder als Reaktion auf Fahrzeugbetriebsbedingungen und Bedienereingaben. Das PCM 132 ist als eine einzelne Steuerung dargestellt, kann jedoch eine Vielzahl von funktionalen Steuerungsvorrichtungen zum Steuern verschiedener Antriebsstrangstellglieder, einschließlich dem Motor, dem Getriebe, den Drehmomentmaschinen, Radmotoren und weiteren Elementen des Antriebsstrangs 32 beinhalten, von denen keine dargestellt ist. Als nicht einschränkendes Beispiel kann der Antriebsstrang 32 einen Verbrennungsmotor und ein Getriebe mit einer zugehörigen Motorsteuerung und Getriebesteuerung beinhalten. Darüber hinaus kann der Verbrennungsmotor eine Vielzahl von diskreten Teilsystemen mit einzelnen Steuerungen beinhalten, wie z. B. eine elektronische Drosselvorrichtung und Steuerung, Kraftstoffeinspritzdüsen und -steuerungen, usw. Der Antriebsstrang 32 kann auch aus einem elektrisch betriebenen Motor/Generator mit zugehörigem Wechselrichtermodul und Wechselrichtersteuerung bestehen. Die Steuerroutinen des PCM 132 können auch ein adaptives Geschwindigkeitsregelungssystem (ACC) beinhalten, das die Fahrzeuggeschwindigkeit, die Beschleunigung und das Bremsen als Reaktion auf Fahrereingaben und/oder autonome Fahrzeugsteuereingänge steuert. Das PCM 132 beinhaltet auch einen PCM VHM Agent 133.
  • Das VCM 136 kommuniziert mit mehreren Fahrzeugbetriebssystemen, ist mit diesen funktional verbunden und führt Steuerungsroutinen zum Steuern dessen Betriebs aus. Die Fahrzeugbetriebssysteme können Bremsen, Stabilitätskontrolle und Lenkung beinhalten, die durch Stellglieder des Bremssystems 36, des Fahrwerksystems 38 und des Lenksystems 34 gesteuert werden können, die vom VCM 136 gesteuert werden. Das VCM 136 ist als eine einzelne Steuerung dargestellt, kann jedoch mehrere funktionale Steuerungsvorrichtungen zum Überwachen von Systemen und Steuern verschiedener Stellglieder beinhalten. Das VCM 136 beinhaltet auch einen VCM VHM Agent 137.
  • Das Lenksystem 34 ist zum Steuern der seitlichen Bewegung des Fahrzeugs konfiguriert. Das Lenksystem 34 beinhaltet bevorzugt eine elektrische Servolenkung (EPS), die mit einem aktiven Frontlenksystem zum Ergänzen oder Ersetzen der Bedienereingabe über ein Lenkrad 108 durch Steuern des Lenkwinkels der lenkbaren Räder des Fahrzeugs 10 während der Ausführung eines autonomen Manövers verbunden ist, wie etwa eines Spurwechsels. Ein exemplarisches aktives Frontlenksystem ermöglicht einen primären Lenkvorgang durch den Fahrzeugführer, einschließlich der Erhöhung der Lenkradwinkelsteuerung, wenn dieses zum Erzielen eines bevorzugten Lenkwinkels und/oder Fahrzeuggierwinkels nötig ist. Alternativ oder ergänzend kann das aktive Frontlenksystem eine vollständige autonome Steuerung der Fahrzeuglenkfunktion ermöglichen. Es wird erkannt, dass die hierin beschriebenen Systeme mit Modifikationen an den Fahrzeuglenksteuerungssystemen, wie etwa elektrischer Servolenkung, Vier-/ Hinterrad-Lenksystemen und direkten Giersteuerungssystemen anwendbar sind, das den Antriebsschlupf jedes Rades zum Erzeugen einer Gierbewegung steuert.
  • Das Bremssystem 36 ist zum Steuern der Fahrzeugbremsung konfiguriert und beinhaltet Radbremsvorrichtungen, z.B. Scheibenbremselemente, Bremssättel, Hauptzylinder und ein Bremsstellglied, z. B. ein Pedal. Die Raddrehzahlsensoren überwachen die einzelnen Raddrehzahlen, und eine Bremssteuerung kann mit einer Antiblockierfunktion ausgestattet werden.
  • Das Fahrwerksystem 38 beinhaltet vorzugsweise eine Vielzahl von bordeigenen Sensorsystemen und Vorrichtungen zum Überwachen des Fahrzeugbetriebs zum Ermitteln von Fahrzeugbewegungszuständen und, in einer Ausführungsform, eine Vielzahl von Vorrichtungen zum dynamischen Steuern einer Fahrzeugaufhängung. Die Fahrzeugbewegungszustände beinhalten bevorzugt z. B. die Fahrgeschwindigkeit, den Lenkwinkel der lenkbaren Vorderräder und die Gierrate. Die Bordfahrwerküberwachungs-Sensorsysteme und Vorrichtungen beinhalten Trägheitssensoren, wie etwa Drehratensensoren und Beschleuniger. Das Fahrwerksystem 38 schätzt die Fahrzeugbewegungszustände, wie etwa Fahrzeuglängsgeschwindigkeit, Gierrate und Quergeschwindigkeit und schätzt den seitlichen Versatz und Gierwinkel des Fahrzeugs 10. Die gemessene Gierrate wird mit den Lenkwinkelmessungen zum Schätzen des Fahrzeugzustands der Quergeschwindigkeit verbunden. Die Fahrzeuglängsgeschwindigkeit kann anhand von Signaleingängen der Raddrehzahlsensoren bestimmt werden, die zum Überwachen jedes der Vorderräder und Hinterräder eingerichtet sind. Die den Fahrzeugbewegungszuständen zugeordneten Signalen können von anderen Fahrzeugsteuerungssystemen zur Fahrzeugsteuerung und -bedienung übertragen und überwacht werden.
  • Das Fahrzeug-Raumüberwachungssystem 40 und die Raumüberwachungssteuerung 140 können eine Steuerung und eine Vielzahl von Raumsensoren 41 beinhalten, wobei jeder der Raumsensoren 41 am Fahrzeug angeordnet ist, um ein Sichtfeld 43 von Objekten und geographischen Regionen zu überwachen, die sich in der Nähe des Fahrzeugs 10 befinden. Die Raumüberwachungssteuerung 140 erzeugt basierend auf den Dateneingaben der Raumsensoren digitale Darstellungen der einzelnen Sichtfelder einschließlich der benachbarten entfernten Objekte. Die Raumüberwachungssteuerung 140 beinhaltet auch einen Raumüberwachungs-VHM-Agenten 141. Die Raumüberwachungssteuerung 140 kann die Eingänge der Raumsensoren 41 auswerten, um einen linearen Bereich, die relative Geschwindigkeit und die Trajektorie des Fahrzeugs 10 im Hinblick auf jedes benachbarte entfernte Objekt zu bestimmen. Die Raumsensoren 41 können an verschiedenen Stellen am Fahrzeug 10 angebracht werden, einschließlich der vorderen Ecken, hinteren Ecken, hinteren Seiten und Mittelseiten. Die Raumsensoren 41 können einen vorderen Radarsensor und eine Kamera in einer Ausführungsform beinhalten, obwohl die Offenbarung nicht so beschränkt ist. Die Anordnung der erwähnten Raumsensoren 41 ermöglicht der Raumüberwachungssteuerung 140 das Überwachen des Verkehrsflusses, einschließlich von sich in der Nähe befindlichen Fahrzeugen und anderen Objekte um das Fahrzeug 10. Daten, die durch die Raumüberwachungssteuerung 140 erzeugt werden, können durch den Fahrbahnmarkierungserfassungsprozessor (nicht dargestellt) zum Schätzen der Fahrbahn angewendet werden. Die Raumsensoren 41 des Fahrzeug-Raumüberwachungssystems 40 können darüber hinaus objektlokalisierende Sensorvorrichtungen beinhalten, einschließlich Bereichssensoren, wie etwa FM-CW(Frequency Modulated Continuous Wave)-Radare und FSK(Frequency Shift Keying)-Radar und Lidar(Light Detection and Ranging)-Vorrichtungen und Ultraschallvorrichtungen, die auf Effekte, wie etwa Doppler-Effekt-Messungen zum Orten von vorderen Objekten, angewiesen sind. Die möglichen objekterfassenden Vorrichtungen beinhalten ladungsgekoppelte Vorrichtungen (CCD) oder komplementäre Metalloxid-Halbleiter-Schalteinrichtungs-(CMOS)-Videobildsensoren und andere bekannte Kamera/ Videobild-Prozessoren, die digitale fotografische Verfahren zum ‚Ansehen‘ vorderer Objekte, einschließlich eines oder mehrerer Fahrzeuge(s), verwenden. Diese Sensorsysteme werden zur Erfassung und Ortung von Objekten in Automobilanwendungen angewendet und sind mit Systemen verwendbar, einschließlich z. B. adaptiver Geschwindigkeitsregelung, Kollisionsvermeidung, Pre-Crash-Sicherheit und Seitenobjekterfassung.
  • Die dem Fahrzeug-Raumüberwachungssystem 40 zugeordneten Raumsensoren 41 werden vorzugsweise innerhalb des Fahrzeugs 10 in einer relativ ungehinderten Position positioniert, um die räumliche Umgebung zu überwachen. Wie hier angewandt, beinhaltet die räumliche Umgebung externen Elemente, einschließlich fester Objekte wie Schilder, Masten, Bäume, Häuser, Geschäfte, Brücken usw.; und bewegte oder bewegliche Objekte wie Fußgänger und andere Fahrzeuge. Jeder dieser Raumsensoren 41 stellt eine Schätzung der tatsächlichen Lage oder des Zustands eines Objekts bereitstellt, worin die Schätzung eine geschätzte Position und die Standardabweichung beinhaltet. Als solches werden die sensorische Erfassung und Messung von Objektorten und Bedingungen für gewöhnlich als ,Schätzwerte‘ bezeichnet. Es wird ferner erkannt, dass die Eigenschaften dieser Raumsensoren 41 komplementär sind, indem einige beim Schätzen bestimmter Parameter zuverlässiger sind als andere. Die Raumsensoren 41 können jeweils unterschiedliche Betriebsbereiche und Winkelabdeckungen aufweisen, die verschiedene Parameter innerhalb ihrer Betriebsbereiche schätzen können. Beispielsweise können Radarsensoren normalerweise den Bereich, die Bereichsrate und Azimutort eines Objekts schätzen, sind aber normalerweise nicht gut im Schätzen der Maße eines erfassten Objektes. Eine Kamera mit Vision-Prozessor ist beim Schätzen einer Form und Azimutposition des Objekts genauer, jedoch weniger effizient beim Schätzen des Bereichs und der Bereichsrate eines Objekts. Scannende Lidarsysteme arbeiten effizient und genau gegenüber der Schätzung des Bereichs und der Azimutposition, können jedoch normalerweise nicht die Bereichsrate schätzen und sind daher nicht so genau bei einer neuen Objekterfassung/ -erkennung. Ultraschallsensoren sind in der Lage den Bereich zu schätzen, jedoch im Allgemeinen nicht in der Lage zur Schätzung oder Berechnung der Bereichsrate und Azimutposition. Weiterhin wird erkannt, dass die Leistung jeder Sensorik durch unterschiedliche Umgebungsbedingungen beeinflusst wird. Somit präsentieren einige Raumsensoren 41 parametrische Varianzen während des Betriebs, obwohl überlappende Erfassungsbereiche der Sensoren Möglichkeiten für die Sensordatenfusion schaffen.
  • Das HVAC-System 44 ist zur Verwaltung der Umgebungsbedingungen im Fahrgastraum vorgesehen, wie z.B. Temperatur, Luftfeuchtigkeit, Luftqualität und dergleichen, als Reaktion auf Bedienbefehle, die an die HVAC-Steuerung 144 übermittelt werden, die deren Betrieb steuert. Die HVAC-Steuerung 144 beinhaltet auch einen HVAC VHM Agent 145.
  • Die Bedienelemente 46 können in den Fahrgastraum des Fahrzeugs 10 integriert werden und können als nicht einschränkende Beispiele ein Lenkrad 108, ein Gaspedal, ein Bremspedal und eine Bedienereingabevorrichtung 110 beinhalten. Die Bedienelemente 46 und die dazugehörige Bedienersteuerung 146 ermöglichen dem Fahrzeugführer die Interaktion und den direkten Betrieb des Fahrzeugs 10 zur Personenbeförderung. Die Bedienersteuerung 146 beinhaltet auch einen Bedienersteuerungs-VHM-Agent 147. Die Bedienersteuerungsvorrichtung, einschließlich des Lenkrads 108, des Gaspedals, des Bremspedals, des Gangwahlschalters und dergleichen, kann bei einigen Ausführungsformen des autonomen Fahrzeugs 10 wegfallen.
  • Das Lenkrad 108 kann an einer Lenksäule 109 mit der Eingabevorrichtung 110 mechanisch an der Lenksäule 109 montiert und für die Kommunikation mit der Bedienersteuerung 146 konfiguriert werden. Alternativ kann die Eingabevorrichtung 110 mechanisch in Nähe der Lenksäule 109 an einer Stelle montiert werden, die für den Fahrzeugführer komfortabel ist. Die Eingabevorrichtung 110, die hierin als ein hervorstehender Schaft der Säule 109 dargestellt ist, beinhaltet eine Benutzeroberflächenvorrichtung, durch die der Fahrzeugführer den Fahrzeugbetrieb in einem autonomen Steuermodus anweisen kann, z. B. durch Anweisung des Aktivierens der Elemente des autonomen Fahrzeugsteuersystems 20. Die Mechanisierung der Eingabevorrichtung 110 ist exemplarisch. Die Eingabevorrichtung 110 kann in einer oder mehreren der Vielzahl an Vorrichtungen mechanisiert werden kann oder in Form einer Steuerung auftreten kann, die sprachaktiviert ist oder ein anderes geeignetes System sein kann. Die Eingabevorrichtung 110 weist bevorzugt Steuerungsmerkmale und eine Stelle auf, die durch vorliegende Blinksignalaktivierungssysteme verwendet werden. Alternativ können andere Eingabevorrichtungen, wie etwa Hebel, Taster, Knöpfe und Spracherkennungs-Eingabevorrichtungen anstelle von oder zusätzlich zu den Eingabevorrichtungen 110 verwendet werden.
  • Das HMI-System 42 ermöglicht die Interaktion zwischen Mensch/Maschine, um die Bedienung eines Infotainmentsystems, einer bordeigenen GPS-Ortungsvorrichtung, eines Navigationssystems und dergleichen zu steuern, und ist mit einer HMI-Steuerung 142 ausgestattet. Die HMI-Steuerung 142 überwacht Bedieneranforderungen und liefert Informationen an den Bediener, einschließlich den Status der Fahrzeugsysteme sowie Service- und Wartungsinformationen. Die HMI-Steuerung 142 kann auch ein globales Positionierungs-/Navigationssystem beinhalten. Die HMI-Steuerung 142 kommuniziert mit und/oder steuert den Betrieb der Vielzahl von Benutzeroberflächenvorrichtungen, worin die Benutzeroberflächenvorrichtungen zum Senden einer Nachricht in Verbindung mit einem der autonomen Fahrzeugsteuerungssysteme, in der Lage ist. Die HMI-Steuerung 142 kann ebenfalls mit einer oder mehreren Vorrichtungen kommunizieren, die biometrische Daten in Verbindung mit dem Fahrzeugführer überwachen, einschließlich z. B. unter anderem Blickrichtung, Haltung und Kopfpositionserfassung. Die HMI-Steuerung 142 ist eine einheitliche Vorrichtung zur Vereinfachung der Beschreibung, kann jedoch als mehrere Steuermodule und den entsprechenden Sensorvorrichtungen in einer Ausführungsform des hierin beschriebenen Systems konfiguriert sein. Die HMI-Steuerung 142 beinhaltet auch einen HMI VHM Agent 143. Bedieneroberflächenvorrichtungen können diese Vorrichtungen beinhalten, die zum Senden einer Nachricht in der Lage sind, die den Bediener zum Handeln auffordert, und können ein elektronisches Anzeigemodul beinhalten, z. B. eine FlüssigkristallDisplay(LCD)-Vorrichtung, ein Heads-Up-Display (HUD) (nicht dargestellt), eine Audio-Feedbackvorrichtung, eine tragbare Vorrichtung und einen haptischen Sitz. Die Bedieneroberflächenvorrichtungen, die in der Lage sind zu einer Bedieneraktion aufzufordern, werden bevorzugt durch oder über die HMI-Steuerung 142 gesteuert. Das HUD kann Informationen projizieren, die auf eine Innenseite einer Windschutzscheibe des Fahrzeugs im Sichtfeld des Fahrers reflektiert wird, umfassend das Übertragen eines Konfidenzniveaus in Verbindung mit einem der autonomen Fahrzeugsteuerungssysteme. Das HUD kann ebenfalls erweiterte Realitätsinformationen bereitstellen, wie etwa Fahrspurort, Fahrzeugweg, Richtungs- und/ oder Ortungsinformationen und dergleichen. Das HUD und ähnliche Systeme sind Fachleuten bekannt.
  • Die Fahrzeugbeleuchtung, das Beleuchtungs- und Außensignalisierungssystem 48 beinhaltet eine Vielzahl von Scheinwerfern, Rückleuchten, Bremsleuchten, Schlussleuchten, Signalleuchten und dergleichen, die über die Beleuchtungssteuerung 148 steuerbar sind. Die Beleuchtungssteuerung 148 kommuniziert mit den Umgebungslichtsensoren, dem GPS-System und dem Navigationssystem und führt Steuerroutinen aus, die verschiedene Scheinwerfer, Rückleuchten, Bremsleuchten, Schlussleuchten, Signalleuchten, basierend auf dem Umgebungslicht, der Fahrtrichtung des GPS- und Navigationssystems und anderen Faktoren selektiv ausleuchten. Weitere Faktoren können einen Übersteuerungsbefehl zur Beleuchtung der Fahrzeuglampen in einem Baustellenbereich sein. Die Beleuchtungssteuerung 148 beinhaltet zudem einen Beleuchtungs-VHM-Agent 149.
  • In einer Ausführungsform ist das betrachtete Fahrzeug 10 zum Kommunizieren mit dem Kommunikationsnetz 285 konfiguriert, einschließlich der Kommunikation zwischen dem intelligenten Straßensystem und dem betrachteten Fahrzeug 10. Ein intelligentes Autobahnsystem kann zum Überwachen von Standorten, Geschwindigkeiten und Trajektorien einer Vielzahl von Fahrzeugen konfiguriert werden, wobei diese Informationen verwendet werden, um die Steuerung eines oder mehrerer ähnlich gelegener Fahrzeuge zu erleichtern. Dieses kann die Kommunikation des geografischen Standorts, die Frontgeschwindigkeit und Beschleunigungsrate von einem oder mehreren Fahrzeugen in Bezug auf das Fahrzeug 10 beinhalten. In einer Ausführungsform ist das Fahrzeug 10 zum Kommunizieren mit einer externen Steuerung 280 über das Kommunikationsnetz 285 konfiguriert.
  • Die VHM-Steuerung 120 ist zum Überwachen des Zustands verschiedener bordeigener Teilsysteme konfiguriert, die eine oder mehrere Funktionen im Zusammenhang mit dem autonomen Fahrzeugbetrieb ausführen. Die VHM-Steuerung 120 beinhaltet eine Steuerungsarchitektur, die mit einer mehrschichtigen hierarchischen VHM-Datenverarbeitung, -Erfassung und -Speicherung unter Verwendung der Vielzahl von VHM-Agenten konfiguriert ist, die einer VHM-Mastersteuerung zugeordnet sind, die mit der externen Steuerung 280 kommunizieren kann. Diese Konfiguration kann dazu dienen, die Komplexität der Datenverarbeitung, die Datenerfassung und die Kosten für die Datenspeicherung zu reduzieren. Die VHM-Steuerung 120 stellt eine zentralisierte Systemüberwachung und eine verteilte Systemüberwachung mit Datenerfassung über die VHM-Mastersteuerung und die Vielzahl der VHM-Agenten zur Verfügung, um eine schnelle Reaktionszeit und eine integrierte Fahrzeug-/Systemebenenabdeckung zu gewährleisten. Die VHM-Steuerung 120 kann auch eine Fehlerbegrenzungssteuerung und eine redundante VHM-Mastersteuerung beinhalten, um die Integrität der von der Fehlerbegrenzungssteuerung verwendeten VHM-Informationen zu überprüfen.
  • Der Begriff „Steuerung“ und verwandte Begriffe wie Steuermodul, Modul, Steuerung, Steuereinheit, Prozessor und ähnliche Begriffe beziehen sich auf eine oder verschiedene Kombinationen von anwendungsspezifischen integrierten Schaltungen (ASIC), elektronische Schaltung(en), Zentralrechnereinheit(en), z. B. Mikroprozessor(en) und zugehörige nichttransitorische Speicherkomponente(n) in Form von Speicher und Speichergeräten (Lesespeicher, programmierbarer Lesespeicher, Direktzugriff, Festplatte usw.). Die nichttransitorisch Speicherkomponente ist in der Lage, maschinenlesbare Befehle in der Form einer oder mehrerer Software- oder Firmware-Programme oder -Routine, kombinatorischen Logikschaltung(en), Eingabe-/Ausgabeschaltung(en) und -geräten, Signalaufbereitungs- und Pufferschaltungen und anderen Komponenten zu speichern, auf die durch einen oder mehrere Prozessoren zugegriffen werden kann, um eine beschriebene Funktionalität bereitzustellen. Zu den Ein- und Ausgabevorrichtungen und Schaltungen gehören Analog-/Digitalwandler und ähnliche Vorrichtungen, die Sensoreingaben mit einer vorgegebenen Abruffrequenz oder in Reaktion auf ein Auslöseereignis überwachen. Software, Firmware, Programme, Befehle, Steuerroutinen, Code, Algorithmen und ähnliche Begriffe beziehen sich auf von einer Steuereinheit ausführbaren Befehlssätze, wie z. B. Kalibrierungen und Wertetabellen. Jede Steuerung führt eine oder mehrere Steuerroutinen aus, um gewünschte Funktionen bereitzustellen. Die Routinen können in regelmäßigen Intervallen, wie z. B. während des laufenden Betriebs alle 100 Mikrosekunden, ausgeführt werden. Alternativ dazu können Routinen in Reaktion auf ein Auslöseereignis ausgeführt werden. Der Begriff ,Modell‘ bezeichnet einen prozessorbasierten oder einen über einen Prozessor ausführbaren Code und die zugehörige Kalibrierung, die die physische Existenz einer Vorrichtung oder eines physischen Prozesses simuliert. Der Begriff „dynamisch“ beschreibt Schritte oder Prozesse, die in Echtzeit ausgeführt werden und durch das Überwachen oder sonstige Ermitteln von Parameterzuständen und dem regelmäßigen oder periodischen Aktualisieren von Parameterzuständen beim Ausführen einer Routine oder zwischen Iterationen beim Ausführen der Routine gekennzeichnet sind. Die Begriffe „Kalibrierung“, „Kalibrieren“ und verwandte Begriffe beziehen sich auf ein Ergebnis oder ein Verfahren, das eine tatsächliche oder Standardmessung, die mit einer Vorrichtung verbunden ist, mit einer wahrgenommenen oder beobachteten Messung oder einer befohlenen Position vergleicht. Eine hierin beschriebene Kalibrierung kann auf eine speicherbare parametrische Tabelle, mehrere ausführbare Gleichungen oder eine andere geeignete Form reduziert werden.
  • Die Kommunikation zwischen den Steuerungen und die Kommunikation zwischen Steuerungen und Stellgliedern und/oder Sensoren können über eine direkte Drahtverbindung, einen vernetzten Kommunikationsbus, eine drahtlose Verbindung oder eine andere geeignete Kommunikationsverbindung erfolgen. Die Kommunikation beinhaltet den Austausch von Datensignalen auf eine geeignete Art, darunter auch z. B. elektrische Signale über ein leitfähiges Medium, elektromagnetische Signale durch die Luft, optische Signale über Lichtwellenleiter und dergleichen. Datensignale können diskrete, analoge oder digitalisierte analoge Signale beinhalten, die Eingaben von Sensoren und Stellgliedbefehle, sowie Kommunikationssignale zwischen Steuereinheiten darstellen. Der Begriff „Signal“ bezieht sich auf eine physisch wahrnehmbare Anzeige, die Informationen übermittelt und kann eine geeignete Wellenform (z. B. elektrische, optische, magnetische, mechanische oder elektromagnetische) umfassen, wie beispielsweise Gleichstrom, Wechselspannung, Sinuswellen, Dreieckswelle, Rechteckwelle, Vibration und dergleichen, die durch ein Medium laufen können. Ein Parameter ist definiert als eine messbare Größe, die eine physikalische Eigenschaft einer Vorrichtung oder eines anderen Elements darstellt, die durch einen oder mehrere Sensoren und/oder ein physikalisches Modell erkennbar ist. Ein Parameter kann einen diskreten Wert aufweisen, z. B. „1“ oder „0“, oder kann stufenlos eingestellt werden.
  • Die Begriffe „Prognose“, „Prognostik“ und verwandte Begriffe sind mit der Datenüberwachung und mit Algorithmen und Auswertungen verbunden, die eine vorausschauende Aussage über ein wahrscheinliches zukünftiges Ereignis im Zusammenhang mit einer Komponente, einem Teilsystem oder einem System treffen. Prognosen können Klassifizierungen beinhalten, die einen ersten Zustand beinhalten, der anzeigt, dass die Komponente, das Teilsystem oder das System gemäß ihrer Spezifikation arbeiten („Grün“ oder „G“), einen zweiten Zustand, der eine Verschlechterung des Betriebs der Komponente, des Teilsystems oder des Systems anzeigt („Gelb“ oder „Y“), und einen dritten Zustand, der einen Fehler im Betrieb der Komponente, des Teilsystems oder des Systems anzeigt („Rot“ oder „R“). Die Begriffe „Diagnostik“, „Diagnose“ und verwandte Begriffe sind mit der Datenüberwachung und mit Algorithmen und Auswertungen verbunden, die das Vorhandensein oder Nichtvorhandensein eines bestimmten Fehlers einer Komponente, eines Teilsystems oder eines Systems anzeigen. Der Begriff „Minderung“ und verwandte Begriffe sind mit Vorgängen, Aktionen oder Steuerroutinen verbunden, die dazu dienen, die Auswirkungen eines Fehlers in einer Komponente, einem Teilsystem oder einem System zu vermindern.
  • Die Telematiksteuerung 125 beinhaltet ein drahtloses Telematikkommunikationssystem, das in der Lage zu zusätzlicher Fahrzeugkommunikation ist, einschließlich Kommunikation mit einem Kommunikationsnetzwerksystem 285 mit drahtlosen und verdrahteten Kommunikationsfähigkeiten. Die Telematiksteuerung 125 ist in der Lage zu zusätzlicher Fahrzeugkommunikation ist, einschließlich Kurzbereichs-Fahrzeugzu-Fahrzeug(V2V)-Kommunikation. Alternativ oder zusätzlich weist die Telematiksteuerung 125 ein drahtloses Telematikkommunikationssystem auf, das in der Lage zu Kurzbereichs-Drahtloskommunikation an eine handgehaltene Vorrichtung ist, beispielsweise ein Mobiltelefon, ein Satellitentelefon oder eine andere Telefonvorrichtung. In einer Ausführungsform ist die handgehaltene Vorrichtung mit einer Softwareanwendung versehen, die ein drahtloses Protokoll zum Kommunizieren mit der Telematiksteuerung beinhaltet und die handgehaltene Vorrichtung führt die zusätzliche Fahrzeugkommunikation aus, einschließlich der Kommunikation mit einer externen Steuerung 280 über das Kommunikationsnetz 285. Alternativ oder zusätzlich führt die Telematiksteuerung die zusätzliche Fahrzeugkommunikation direkt durch, indem sie über ein Kommunikationsnetz 285 mit der externen Steuerung 280 kommuniziert.
  • Prognostische Klassifizierungsroutinen zum Bestimmen einer Prognose, d. h. R/Y/G, für jedes der Teilsysteme können in der VHM-Steuerung 120 ausgeführt werden. Die prognostischen Klassifizierungsroutinen können das Auftreten einer grünen Prognose erkennen, die mit einem der Fahrzeug-Teilsysteme und zugehörigen Steuerungen des autonomen Fahrzeugsteuerungssystems 20 verbunden ist, und die VHM-Steuerung 120 kann die zugehörige Datenübertragung außerhalb über das Kommunikationsnetz 285 blockieren, um die Datenkommunikationslast auf die externe Steuerung 280 zu reduzieren. Alternativ kann das Übertragen einer grünen Prognose in Form einer einfachen Bestätigung der Grünbestimmung für eine Komponente, ein Subsystem oder ein System eines der Fahrzeugsysteme und der zugehörigen Steuerungen des autonomen Fahrzeugsteuerungssystems 20 mit einem Zeitstempel erfolgen, wodurch die Datenübertragungslast zur externen Steuerung 280 minimiert wird.
  • Die VHM-Steuerung 120 beinhaltet ausführbare Routinen zur Auswertung von fahrzeuginternen Vorrichtungen, welche die räumliche Umgebung in unmittelbarer Nähe des autonomen Fahrzeugs 10 überwachen, wie z. B. die Raumsensoren 41, das Fahrzeug-Raumüberwachungssystem 40, die Raumüberwachungssteuerung 140 und der Raumüberwachungs-VHM-Agent 141, der mit Bezug auf 1 beschrieben wird.
  • Die Raumüberwachungssteuerung 140 beinhaltet ein Wahrnehmungsmodul 150, das zum Überwachen der räumlichen Umgebung in der Nähe des autonomen Fahrzeugs 10 konfiguriert ist. Die Dateneingabe in das Wahrnehmungsmodul 150 beinhaltet die Vielzahl von Raumsensoren 41, geographische Ortsangaben aus dem GPS-System, eine 3D-Karte mit detaillierten Informationen über die räumliche Umgebung und Eingaben von den bordeigenen Sensorsystemen und -vorrichtungen. Die bordeigenen Sensorsysteme und -vorrichtungen beinhalten Trägheitssensoren, wie beispielsweise Raddrehzahlsensoren, Geschwindigkeitskreisel, Beschleunigungssensoren, Lenkwinkelsensoren und andere fahrzeugseitige Elemente, die zum Ermitteln der Fahrzeugbewegungszustände wie Längsgeschwindigkeit, Giergeschwindigkeit und Quergeschwindigkeit sowie Seitenversatz und Richtungswinkel des Fahrzeugs 10 angeordnet sind.
  • Das Wahrnehmungsmodul 150 dient zum Überwachen und Charakterisieren der räumlichen Umgebung in der Nähe des Fahrzeugs 10, das den Fahrzeugsystemen und den zugehörigen Steuerungen des autonomen Fahrzeugsteuerungssystems 20 zur Verfügung gestellt wird, um ein Maß an Fahrautomation zu gewährleisten. Daten- und Signaleingänge zum Wahrnehmungsmodul 150 beinhalten räumliche Umgebungsdaten in Form von Eingängen der Raumsensoren 41, darunter Kameras, Radargeräte, Lidars, usw. Die Dateneingabe in das Wahrnehmungsmodul 150 beinhaltet zudem Kartendaten in Form einer detaillierten 3D-Karte der Umgebung und Positionsdaten vom GPS. Die Dateneingabe in das Wahrnehmungsmodul 150 beinhaltet zudem fahrdynamische Daten in Form von Daten, die von fahrzeuginternen Sensoren, wie beispielsweise Gyros und Raddrehzahlsensoren, erfasst werden. Die Dateneingabe in das Wahrnehmungsmodul 150 beinhaltet weiterhin Informationen, die von anderen Fahrzeugen übermittelt werden, z. B. V2V-Daten, und Informationen, die von der Infrastruktur übermittelt werden, z. B. V2X-Daten.
  • Das Wahrnehmungsmodul 150 beinhaltet Lokalisierungs-, Objekterkennungs- und Klassifizierungsalgorithmen zum Schätzen der Position der aktuellen Straße, der aktuellen Fahrspur, der Art und Position von Objekten und Hindernissen, einschließlich statischer und dynamischer Hindernisse und Objekte. Das Wahrnehmungsmodul 150 kann die Bewegung und das Verhalten der umliegenden beweglichen Hindernisse auf der Straße und auf der Fahrbahn schätzen.
  • 2 veranschaulicht eine isometrische Darstellung eines Rahmens einer räumlichen Umgebung 200 an einem geographischen Standort 155, worin die räumliche Umgebung 200 nahe an einer Ausführungsform des unter Bezugnahme auf 1 beschriebenen Fahrzeugs 10 liegt. Die isometrische Darstellung beinhaltet Elemente, die vom Wahrnehmungsmodul 150 für das Fahrzeug 10 ausgegeben werden können. Das Wahrnehmungsmodul 150 kann Informationen beinhalten, die eine Position des Fahrzeugs 10 in Bezug auf die aktuelle Straße und die aktuelle Fahrspur, Art und Position von Objekten und Hindernissen (sowohl statisch als auch dynamisch) sowie eine Vorhersage der Bewegung und des Verhaltens der umliegenden beweglichen Hindernisse auf der Straße und auf der Fahrspur anzeigen.
  • 3 stellt schematisch ein Informationsflussdiagramm zum Ausführen einer Offline-Auswertung 300 einer Ausführungsform des am Fahrzeug 10 eingesetzten Wahrnehmungsmoduls 150 dar. Die Offline-Auswertung 300 wird periodisch durchgeführt, um zu ermitteln, ob das Wahrnehmungsmodul 150 wie vorgesehen funktioniert, d. h. ob die vom Wahrnehmungsmodul 150 erfasste räumliche Umgebung in der Nähe des Fahrzeugs 10 eine tatsächliche räumliche Umgebung in der Nähe des Fahrzeugs 10 exakt wiedergibt oder nicht. In jedem hierin beschriebenen Anwendungsfall setzt sich die tatsächliche räumliche Umgebung für ein Fahrszenario aus Merkmalen und Eigenschaften zusammen, die unabhängig verifiziert wurden, z. B. die Verifizierung durch Experten. Die Offline-Auswertung 300 ist vorzugsweise eine oder eine Vielzahl von Steuerroutinen durch die VHM-Steuerung 140 ausgeführt werden, wobei die darin gespeicherten oder von anderen Vorrichtungen entweder im Fahrzeug oder außerhalb des Fahrzeugs verfügbaren Informationen verwendet werden.
  • Die Offline-Auswertung 300 beinhaltet das Erfassen und Speichern einer Vielzahl von Dateneingaben 310 in Form einer Vielzahl von sequentiell erfassten Datenrahmen für ein gespeichertes Fahrszenario 315, worin das gespeicherte Fahrszenario 315 eine räumliche Umgebung beinhaltet, die einem geographischen Standort zugeordnet ist, der eine Perspektive und ein Sichtfeld basierend auf einer Position und einer Richtung des Fahrzeugs beinhaltet. Die Datenrahmen für das gespeicherte Fahrszenario 315 beinhalten räumliche Umgebungsdaten 316, die Eingaben der bordeigenen Raumsensoren 41, einschließlich der Daten von den Kameras, den Radargeräten, den Lidars usw. beinhalten. Die Datenrahmen für das gespeicherte Fahrszenario 315 beinhalten auch Kartendaten 314, die Eingaben aus einer detaillierten 3D-Karte der Umgebung für den geographischen Standort beinhalten, die in einer Datenbank gespeichert werden können, die sich entweder im Fahrzeug oder außerhalb des Fahrzeugs befindet und für die Fahrzeugsteuerungen, z. B. ein Cloud-basiertes Computersystem, zugänglich ist. Die Datenrahmen für das gespeicherte Fahrszenario 315 beinhalten auch fahrdynamische Daten 312, die Fahrzeugpositions- und Fahrtrichtungsdaten beinhalten, die aus dem Fahrzeug-GPS erhalten werden können, sowie Daten von bordeigenen Sensoren, wie beispielsweise Kreiselsensoren und Raddrehzahlsensoren.
  • Jedes der Fahrszenarien umfasst eine Vielzahl von sequentiellen Rahmen, worin jeder Rahmen ein Raster von Pixeln beinhaltet, die von den Raumsensoren 41 des Fahrzeugs erzeugt werden, und Messungen der Umgebung, die ihren Ursprung in den Kartendaten haben, einschließlich Straßen, Fahrspuren, Gebäuden, statischen Objekten, Verkehrszeichen, Fußgängern und anderen beweglichen Objekten wie Fahrzeugen. 2 ist eine grafische Darstellung des Rahmens.
  • Die fahrdynamischen Daten 312, die Kartendaten 314 und die räumlichen Umgebungsdaten 316 bilden das gespeicherte Fahrszenario 315, das in Form von Rahmen in der umfangreichen Datenbank 330 gespeichert ist. Die umfangreiche Datenbank 330 speichert auch die Daten, die eine tatsächliche räumliche Umgebung 335 für das gespeicherte Fahrszenario 315 darstellen, einschließlich Objekte, Straßen, statische und bewegliche Hindernisse, Verkehrswege und Fahrspuren.
  • Das gespeicherte Fahrszenario 315 wird in das Wahrnehmungsmodul 150 eingegeben, das die fahrdynamischen Daten 312, die Kartendaten 314 und die räumlichen Umgebungsdaten 316 auswertet, um eine geschätzte räumliche Umgebung 325 für das gespeicherte Fahrszenario 315 zu erzeugen. Die geschätzte räumliche Umgebung 325 für das gespeicherte Fahrszenario 315 beinhaltet eine Lage der Straße, die Fahrspur, die Art der Straße, die Klassifizierung und die Lage von Objekten und Hindernissen (sowohl statisch als auch dynamisch) sowie eine vorhergesagte Bewegung und das Verhalten der umgebenden beweglichen Hindernisse auf der Straße und in der Fahrspur. Die geschätzte räumliche Umgebung 325 für das gespeicherte Fahrszenario 315 wird im Vergleich zur tatsächlichen räumlichen Umgebung 335 in Block 340 ausgewertet. Der vergleichende Auswertungsschritt 340 beinhaltet das Ermitteln eines Leistungsindex 345, der sich auf das Erkennen von Fehlern in der geschätzten räumlichen Umgebung 325 für das gespeicherte Fahrszenario 315 bezieht. Ein Beispiel für einen Leistungsindex ist wie folgt: SOH = korrekte Objekte id . ( i ) Wc ( i ) ( korrekte Objekte  ( i ) id . Wc ( i ) + verpasste Objekte  ( i ) id . Wm ( i ) + falsche Objekte id . ( i ) Wf ( i ) )
    Figure DE102018120845A1_0001
    wobei:
    • Σ korrekte Objekte id.(i) ein numerischer Zähler von Objekten, die von der geschätzten räumlichen Umgebung 325 für das gespeicherte Fahrszenario 315 korrekt erkannt werden;
    • Σ ist die verpasste Objekte id.(i) ist eine numerische Anzahl von Objekten, die von der geschätzten räumlichen Umgebung 325 für das gespeicherte Fahrszenario 315 nicht erkannt werden;
    • Σ ist die falsche Objekte id. (i) ist ein numerischer Zähler von Objekten, die von der geschätzten räumlichen Umgebung 325 für das gespeicherte Fahrszenario 315 falsch erkannt werden; und
    • Wc(i), Wm(i) und Wf(i) sind Gewichtungsfaktoren für die jeweiligen korrekt erkannten Objekte, unerkannten Objekte und falsch erkannten Objekte in der geschätzten räumlichen Umgebung im Vergleich zur tatsächlichen räumlichen Umgebung.
  • Der Wert der Gewichtungsparameter Wc(i), Wm(i) und Wf(i) ist abhängig von der Bedeutung der Identifikation und Klassifizierung der verschiedenen Objekte für das autonome Fahren. Wenn beispielsweise ein Objekt in der Nähe des Fahrzeugs 10 liegt und sich in dessen Fahrweg befindet, ist der Gewichtswert hoch, und wenn ein Objekt vom Fahrzeug entfernt ist und sich nicht in dessen Fahrweg befindet, ist der Gewichtswert niedrig.
  • Der Leistungsindex 345 oder SOH kann, wie in Block 350 angegeben, ausgewertet werden, was das Ermitteln einschließt, ob eine weitere Auswertung erforderlich ist, um das Auftreten eines Fehlers im Wahrnehmungsmodul 150 oder im Fahrzeugraumüberwachungssystem 40 des autonomen Fahrzeugs 10 zu erkennen.
  • 4 stellt schematisch eine Ausführungsform einer Routine 400 zur Offline-Auswertung des Wahrnehmungsmoduls 150 dar, die als eine oder eine Vielzahl von Steuerroutinen durch die VHM-Steuerung 140 ausgeführt werden kann, wobei die darin gespeicherten oder von anderen Vorrichtungen entweder im Fahrzeug oder außerhalb des Fahrzeugs verfügbaren Informationen genutzt werden. Die Routine 400 wird periodisch durchgeführt, um zu ermitteln, ob das Wahrnehmungsmodul 150 wie vorgesehen funktioniert, d. h. ob die vom Wahrnehmungsmodul 150 erfasste räumliche Umgebung in der Nähe des Fahrzeugs 10 eine tatsächliche räumliche Umgebung in der Nähe des Fahrzeugs 10 exakt wiedergibt oder nicht. Tabelle 1 sieht eine Aufschlüsselung vor, in der die numerisch gekennzeichneten Blocks und die entsprechenden Funktionen wie folgt und entsprechend der Routine 400 aufgeführt sind. Die Lehren hierin in Bezug auf die funktionalen bzw. logischen Blockkomponenten bzw. verschiedene Verarbeitungsschritte beschrieben sein. Es ist zu beachten, dass derartige Blockkomponenten aus Hardware, Software- und/oder Firmware-Komponenten aufgebaut sein können, die konfiguriert wurden, um die spezifizierten Funktionen auszuführen. Tabelle 1
    BLOCK BLOCKINHALTE
    410 Auswahl des Fahrszenarios aus der Datenbank
    412 Sequentielles Platzieren von Rahmen aus dem Fahrszenario in das Wahrnehmungsmodul und Abschätzen einer räumlichen Umgebung
    Abrufen von Daten aus einer umfassenden Datenbank, welche die tatsächliche räumliche Umgebung für das Fahrszenario darstellt
    414 Vergleichen der geschätzten räumlichen Umgebung mit der tatsächlichen räumlichen Umgebung
    416 Bestimmen des SOH
    418 420 Ist der SOH größer als der Schwellenwert? Isolierung des Fahrzeugs bei Störungen und Servicearbeiten
    422 Anzeige, dass das System wie vorgesehen funktioniert; Datenbank aktualisieren
  • Das Ausführen der Routine 400 für die Offline-Auswertung des Wahrnehmungsmoduls 150 kann wie folgt durchgeführt werden. Die Schritte der Routine 400 können in einer geeigneten Reihenfolge ausgeführt werden und sind nicht auf die Reihenfolge, die mit Bezug auf 4 beschrieben ist, beschränkt. Die Routine 400 beinhaltet das Auswählen eines Fahrszenarios aus der Datenbank (410) und das sequentielle Platzieren von Rahmen aus dem Fahrszenario in das Wahrnehmungsmodul 300, das eine darauf basierende räumliche Umgebung schätzt. Gleichzeitig wird eine Datendatei aus der umfangreichen Datenbank abgerufen, welche die tatsächliche räumliche Umgebung für das Fahrszenario (412) darstellt. Die geschätzte räumliche Umgebung wird mit der tatsächlichen räumlichen Umgebung (414) verglichen und ein Leistungsindex (SOH) berechnet, wie beispielsweise in Bezug auf die GL. 1 (416) dargestellt. Wenn der SOH größer als ein Schwellenwert (418)(1) ist, meldet die Routine 400, dass das Wahrnehmungsmodul 150 wie vorgesehen funktioniert, wobei die Datenbank aktualisiert wird, und diese Iteration endet (422). Wenn der SOH kleiner als der Schwellenwert (418)(0) ist, meldet die Routine 400 das Auftreten eines Fehlers an den Betreiber, an einen Flottenmanager und/oder an ein Fernservicezentrum und isoliert den Fehler für den Service (420).
  • 5 stellt schematisch ein Informationsflussdiagramm zum Ausführen einer dynamischen Auswertung 500 einer Ausführungsform des am Fahrzeug 10 eingesetzten Wahrnehmungsmoduls 150 dar. Die dynamische Auswertung 500 wird periodisch durchgeführt, um zu ermitteln, ob das Wahrnehmungsmodul 150 wie vorgesehen funktioniert, d. h. ob die vom Wahrnehmungsmodul 150 erfasste räumliche Umgebung in der Nähe des Fahrzeugs 10 eine tatsächliche räumliche Umgebung in der Nähe des Fahrzeugs 10 exakt wiedergibt oder nicht. Die dynamische Auswertung 500 ist vorzugsweise eine oder eine Vielzahl von Steuerroutinen durch die VHM-Steuerung 140 ausgeführt werden, wobei die darin gespeicherten oder von anderen Vorrichtungen, z. B. einem cloudbasierten Computersystem, entweder im Fahrzeug oder außerhalb des Fahrzeugs verfügbaren Informationen verwendet werden.
  • Die dynamische Auswertung 500 beinhaltet das Erfassen und Speichern einer Vielzahl von Dateneingaben 510, die in Form einer Vielzahl von Datenrahmen für ein Fahrszenario 515 gespeichert sind, worin das erfasste Fahrszenario 515 eine räumliche Umgebung beinhaltet, die einem geographischen Standort zugeordnet ist, der eine Perspektive und ein Sichtfeld basierend auf einer Position und einer Richtung des Fahrzeugs 10 beinhaltet. Die Datenrahmen für das erfasste Fahrszenario 515 beinhalten räumliche Umgebungsdaten 516, die Eingaben der bordeigenen Raumsensoren 41, einschließlich der Daten von den Kameras, den Radargeräten, den Lidars usw. beinhalten. Die Datenrahmen für das Fahrszenario 515 beinhalten auch Kartendaten 514, die Eingaben aus einer detaillierten 3D-Karte der Umgebung für den geographischen Standort beinhalten, die in einer Datenbank gespeichert werden können, die sich entweder im Fahrzeug oder befinden oder von einem entfernten Standort aus zugänglich ist. Die Datenrahmen für eine Fahrszenario 515 beinhalten auch fahrdynamische Daten 512, die Positionsdaten aus dem Fahrzeug-GPS erhalten können, sowie Daten von bordeigenen Sensoren, wie beispielsweise Kreiselsensoren und Raddrehzahlsensoren.
  • Die umfangreiche Datenbank 530 speichert auch die Daten, welche die tatsächliche räumliche Umgebung 535 für das Fahrszenario 515 darstellen, einschließlich Objekte, Straßen, statische und bewegliche Hindernisse, Verkehrswege und Fahrspuren.
  • Während des dynamischen Betriebs des Fahrzeugs 10 werden die dynamischen Dateneingaben 520 für ein Echtzeit-Fahrszenario 525 überwacht, worin das Echtzeit-Fahrszenario 525 eine räumliche Umgebung beinhaltet, die einem geographischen Standort zugeordnet ist.
  • Die dynamischen Dateneingaben 520, die das Echtzeit-Fahrszenario 525 bilden, beinhalten räumliche Umgebungsdaten 526, Kartendaten 524 und fahrdynamische Daten 522, die Positionsdaten vom Fahrzeug-GPS und Daten von fahrzeugseitigen Sensoren, wie beispielsweise Kreiselsensoren und Raddrehzahlsensoren, beinhalten. Das Echtzeit-Fahrszenario 525 wird in das Wahrnehmungsmodul 150 eingegeben, welches die geschätzte räumliche Umgebung 545 für das Fahrszenario 525 erzeugt. Die geschätzte räumliche Umgebung 545 für das Fahrszenario 525 beinhaltet eine Lage der Straße, die Fahrspur, die Art der Straße, die Klassifizierung und die Lage von Objekten und Hindernissen (sowohl statisch als auch dynamisch) sowie eine vorhergesagte Bewegung und das Verhalten der umgebenden beweglichen Hindernisse auf der Straße und in der Fahrspur.
  • Die geschätzte räumliche Umgebung 545 für das Fahrszenario 525 wird vergleichend zur tatsächlichen räumlichen Umgebung 535 für das Fahrszenario 515 in Block 550 unter der Voraussetzung ausgewertet, dass das Echtzeit-Fahrszenario 525 und das Fahrszenario 515 identisch sind. Der vergleichende Auswertungsschritt 550 beinhaltet das Ermitteln eines Leistungsindex 555, der sich auf das Erkennen von Fehlern in der geschätzten räumlichen Umgebung für das Fahrszenario 525 bezieht. Ein Beispiel für den Leistungsindex 555 oder SOH wird hierin beschrieben, mit Bezug auf die GL. 1. Der Leistungsindex 555 oder SOH kann, wie in Block 560 angegeben, ausgewertet werden, was das Ermitteln einschließt, ob eine weitere Auswertung erforderlich ist, um das Auftreten eines Fehlers im Wahrnehmungsmodul 150 oder das Auftreten eines Fehlers im Fahrzeug-Raumüberwachungssystem 40 des autonomen Fahrzeugs 10 zu erkennen.
  • 6 stellt schematisch eine Ausführungsform einer Routine 600 zur dynamischen Auswertung des Wahrnehmungsmoduls 150 dar, die als eine oder eine Vielzahl von Steuerroutinen durch die VHM-Steuerung 140 ausgeführt werden kann, wobei die darin gespeicherten oder von anderen Vorrichtungen entweder im Fahrzeug oder außerhalb des Fahrzeugs verfügbaren Informationen genutzt werden. Die Routine 600 wird periodisch durchgeführt, um zu ermitteln, ob das Wahrnehmungsmodul 150 wie vorgesehen funktioniert, d. h. ob die vom Wahrnehmungsmodul 150 erfasste räumliche Umgebung in der Nähe des Fahrzeugs 10 eine tatsächliche räumliche Umgebung in der Nähe des Fahrzeugs 10 exakt wiedergibt oder nicht. Tabelle 2 sieht eine Aufschlüsselung vor, in der die numerisch gekennzeichneten Blocks und die entsprechenden Funktionen wie folgt und entsprechend der Routine 600 aufgeführt sind. Die Lehren hierin in Bezug auf die funktionalen bzw. logischen Blockkomponenten bzw. verschiedene Verarbeitungsschritte beschrieben sein. Es ist zu beachten, dass derartige Blockkomponenten aus Hardware, Software- und/oder Firmware-Komponenten aufgebaut sein können, die konfiguriert wurden, um die spezifizierten Funktionen auszuführen. Tabelle 2
    BLOCK BLOCKINHALTE
    610 Dynamische Datenerfassung
    612 Bestimmen der tatsächlichen räumlichen Umgebung für das Fahrszenario (Fall 1)
    614 Bestimmen der tatsächlichen räumlichen Umgebung für das Fahrszenario eines weiteren Fahrzeugs (Fall 2)
    616 Vergleichen der geschätzten räumlichen Umgebung mit der tatsächlichen räumlichen Umgebung
    618 Bestimmen des SOH
    620 Ist der SOH größer als der Schwellenwert?
    622 Isolierung des Fahrzeugs bei Störungen und Servicearbeiten
    624 Anzeige, dass das System wie vorgesehen funktioniert; Datenbank aktualisieren
  • Das Ausführen der Routine 600 für die Offline-Auswertung des Wahrnehmungsmoduls 150 kann wie folgt durchgeführt werden. Die Schritte der Routine 600 können in einer geeigneten Reihenfolge ausgeführt werden und sind nicht auf die Reihenfolge, die mit Bezug auf 6 beschrieben ist, beschränkt. Die Routine 600 beinhaltet die dynamische Datenerfassung für ein Fahrszenario im Fahrzeugbetrieb und die darauf basierende Schätzung der räumlichen Umgebung (610). Das Fahrszenario beinhaltet eine räumliche Umgebung, die einem geografischen Standort zugeordnet ist. Die erfassten Daten beinhalten die vorgenannten räumlichen Umgebungsdaten 526, Kartendaten 524 und fahrdynamische Daten 522.
  • Eine tatsächliche räumliche Umgebung für das Fahrszenario wird abgerufen. In einer Ausführungsform wurde die tatsächliche räumliche Umgebung durch das Fahrzeug 10 erstellt und in einer integrierten Datenbank (612) erfasst. Alternativ oder als zweite Iteration der Durchführung der Routine wurde die tatsächliche räumliche Umgebung durch ein zweites Fahrzeug oder eine Vielzahl von Fahrzeugen erstellt, die ähnlich wie das Fahrzeug 10 oder ein Wahrnehmungsmodul konfiguriert ist, das an derselben Stelle installiert wurde, die zufällig im gleichen Fahrszenario arbeitet. Das zweite Fahrzeug kann ein Kalibrierfahrzeug sein, das analog zur Konfiguration des Fahrzeugs 10 in einer Ausführungsform konfiguriert wurde. Das zweite Fahrzeug kann zufällig im gleichen Fahrszenario wie das Fahrzeug 10 in einer Ausführungsform betrieben werden. Alternativ ist es möglich, dass das zweite Fahrzeug bereits Kalibrierdaten für das Fahrszenario erstellt hat. Die tatsächliche räumliche Umgebung ist den extern erzeugten Dateneingabesätzen für das Fahrszenario zugeordnet, die aus einer im Fahrzeug (614) befindlichen Datenbank abgerufen werden.
  • Die geschätzte räumliche Umgebung wird mit der tatsächlichen räumlichen Umgebung (616) verglichen und ein Leistungsindex (SOH) wird berechnet, z. B. wie in Bezug auf die GL. 1 (618) beschrieben. Wenn der SOH größer als ein Schwellenwert (620)(1) ist, meldet die Routine 600, dass das Wahrnehmungsmodul 150 wie vorgesehen funktioniert, wobei die Datenbank aktualisiert wird, und diese Iteration endet (624). Wenn der SOH kleiner als der Schwellenwert (618)(0) ist, meldet die Routine 600 das Auftreten eines Fehlers an den Betreiber, an einen Flottenmanager und/oder an ein Fernservicezentrum und isoliert den Fehler für den Service (622).
  • Die Flusspläne und Blockdiagramme in den Flussdiagrammen veranschaulichen die Architektur, Funktionalität und den Betrieb möglicher Implementierungen der Systeme, Verfahren und Computerprogrammprodukte gemäß verschiedener Ausführungsformen der vorliegenden Offenbarung. In dieser Hinsicht kann jeder Block in den Flussdiagrammen oder Blockdiagrammen ein Modul, ein Segment oder einen Abschnitt eines Codes darstellen, der zum Implementieren der spezifizierten logischen Funktion(en) einen oder mehrere ausführbare Befehle umfasst. Es wird auch darauf hingewiesen, dass jeder Block der Blockdiagramme und/oder Flussdiagrammdarstellungen und Kombinationen von Blöcken in den Blockdiagrammen und/oder Flussdiagrammdarstellungen durch Spezialzweck-Hardwarebasierte Systeme, die die spezifizierten Funktionen oder Vorgänge durchführen, oder Kombinationen von Spezialzweck-Hardware und Computerbefehlen implementiert werden können. Diese Computerprogrammanweisungen können auch in einem computerlesbaren Medium gespeichert sein, das eine Steuerung oder eine andere programmierbare Datenverarbeitungsvorrichtung steuern kann, um in einer bestimmten Art und Weise zu funktionieren, sodass die im computerlesbaren Medium gespeicherten Befehle einen Herstellungsartikel erzeugen, einschließlich Anweisungen, die die Funktion/den Vorgang, die/der in dem Flussdiagramm und/oder Blockdiagrammblock oder Blöcken angegeben ist, implementieren.
  • Während die ausführliche Beschreibung und die Zeichnungen oder Figuren die vorliegenden Lehren unterstützen und beschreiben, wird der Umfang der vorliegenden Lehren jedoch einzig und allein durch die Ansprüche definiert. Während einige der besten Ausführungsformen und anderen Arten zur Ausführung der vorliegenden Lehren ausführlich beschrieben wurden, sind verschiedene alternative Konstruktionen und Ausführungsformen zur Umsetzung der vorliegenden Lehren, die in den hinzugefügten Ansprüchen definiert sind, möglich.

Claims (10)

  1. Verfahren zur Auswertung eines in einem autonomen Fahrzeug angeordneten Wahrnehmungsmoduls, worin das Wahrnehmungsmodul eine Vielzahl von Routinen beinhaltet, die zum Charakterisieren einer räumlichen Umgebung in der Nähe des autonomen Fahrzeugs ausgeführt werden, wobei das Verfahren umfasst: Erfassen und Speichern einer Vielzahl von Datenrahmen, die einem Fahrszenario für das autonome Fahrzeug zugeordnet sind, über eine Steuerung; Bestimmen einer tatsächlichen räumlichen Umgebung für das Fahrszenario, worin die tatsächliche räumliche Umgebung für das Fahrszenario in der Steuerung gespeichert ist; Ausführen des Wahrnehmungsmoduls zum Ermitteln einer geschätzten räumlichen Umgebung für das Fahrszenario basierend auf den gespeicherten Datenrahmen, die dem Fahrszenario zugeordnet sind; Vergleichen der geschätzten räumlichen Umgebung und der tatsächlichen räumlichen Umgebung für das Fahrszenario über die Steuerung; Bestimmen eines ersten Leistungsindex für das Wahrnehmungsmodul basierend auf dem Vergleich der geschätzten räumlichen Umgebung mit der tatsächlichen räumlichen Umgebung; Erkennen eines Fehlers im Wahrnehmungsmodul basierend auf dem ersten Leistungsindex; und Melden der Störung an eine Servicestelle.
  2. Verfahren nach Anspruch 1, worin das Bestimmen des ersten Leistungsindex für das Wahrnehmungsmodul basierend auf dem Vergleich der geschätzten räumlichen Umgebung und der tatsächlichen räumlichen Umgebung auch das Bestimmen des ersten Leistungsindex basierend auf korrekt erkannten Objekten, unerkannten Objekten und falsch erkannten Objekten in der geschätzten räumlichen Umgebung im Vergleich zu der tatsächlichen räumlichen Umgebung umfasst.
  3. Verfahren nach Anspruch 1, worin das autonome Fahrzeug eine Vielzahl von Raumsensoren und eine GPS-Ortungsvorrichtung in Verbindung mit dem Wahrnehmungsmodul beinhaltet, wobei das Verfahren ferner umfasst: dynamisches Überwachen der Dateneingaben von der GPS-Ortungsvorrichtung und den Raumsensoren; Bestimmen, dass das autonome Fahrzeug im Fahrszenario basierend auf den Dateneingaben der GPS-Ortungsvorrichtung betrieben wird; Bestimmen, über das Wahrnehmungsmodul, einer zweiten wahrgenommenen räumlichen Umgebung für das Fahrszenario basierend auf den dynamisch überwachten Dateneingaben der Raumsensoren; Vergleichen der zweiten wahrgenommenen räumlichen Umgebung für das Fahrszenario und der tatsächlichen räumlichen Umgebung für das Fahrszenario, worin die tatsächliche räumliche Umgebung für das Fahrszenario aus der Datenbank abgerufen wird; Bestimmen eines zweiten Leistungsindex für das Wahrnehmungsmodul basierend auf dem Vergleich der wahrgenommenen räumlichen Umgebung und der gespeicherten tatsächlichen räumlichen Umgebung für das Fahrszenario; und Erkennen eines Fehlers im Wahrnehmungsmodul basierend auf dem zweiten Leistungsindex.
  4. Verfahren nach Anspruch 1, worin das autonome Fahrzeug eine Vielzahl von Raumsensoren und eine GPS-Ortungsvorrichtung in Verbindung mit dem Wahrnehmungsmodul beinhaltet; das Verfahren ferner umfassend: dynamisches Überwachen der Dateneingaben von der GPS-Ortungsvorrichtung und den Raumsensoren; Bestimmen, dass das autonome Fahrzeug im Fahrszenario basierend auf den Dateneingaben der GPS-Ortungsvorrichtung betrieben wird; dynamisches Überwachen der Dateneingaben der Raumsensoren; Bestimmen, über das Wahrnehmungsmodul, einer zweiten wahrgenommenen räumlichen Umgebung für das Fahrszenario basierend auf den dynamisch überwachten Dateneingaben der Raumsensoren; Bestimmen, über ein zweites Fahrzeug, das zufällig im gleichen Fahrszenario betrieben wird, eine zweite tatsächliche räumliche Umgebung für das Fahrszenario; Vergleichen der zweiten wahrgenommenen räumlichen Umgebung und der zweiten tatsächlichen räumlichen Umgebung für das Fahrszenario; Bestimmen eines dritten Leistungsindex für das Wahrnehmungsmodul basierend auf dem Vergleich der dritten wahrgenommenen räumlichen Umgebung mit der tatsächlichen räumlichen Umgebung; und Erkennen eines Fehlers im Wahrnehmungsmodul basierend auf dem dritten Leistungsindex.
  5. Verfahren nach Anspruch 1, worin das Fahrszenario einem geografischen Standort zugeordnet ist.
  6. Verfahren nach Anspruch 1, worin die Vielzahl der Eingaben in das Wahrnehmungsmodul Fahrzeugdynamikdaten, Kartendaten und räumliche Umgebungsdaten für das Fahrszenario beinhalten, und worin das Erfassen und Speichern einer Vielzahl von Datenrahmen, die einem Fahrszenario für das autonome Fahrzeug zugeordnet sind, das periodische Erfassen und Speichern von Fahrzeugdynamikdaten, Kartendaten und räumlichen Umgebungsdaten während des Fahrszenarios umfasst.
  7. Verfahren nach Anspruch 1, worin das Wahrnehmungsmodul zum Überwachen der Eingabe von einem Raumsensor konfiguriert ist, der zum Überwachen der räumlichen Umgebung in der Nähe des Fahrzeugs angeordnet ist.
  8. Verfahren nach Anspruch 7, wobei der Raumsensor eine Kamera umfasst.
  9. Verfahren nach Anspruch 7, worin der Raumsensor eine Radarvorrichtung und eine Lidarvorrichtung umfasst.
  10. Verfahren nach Anspruch 1, worin die Vielzahl von Datenrahmen, die dem Fahrszenario für das autonome Fahrzeug zugeordnet sind, in einem von einem externen oder Cloud-basierten Computersystem gespeichert werden.
DE102018120845.6A 2017-08-28 2018-08-27 Verfahren und Vorrichtung zum Überwachen eines autonomen Fahrzeugs Expired - Fee Related DE102018120845B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/688,429 US10558217B2 (en) 2017-08-28 2017-08-28 Method and apparatus for monitoring of an autonomous vehicle
US15/688,429 2017-08-28

Publications (2)

Publication Number Publication Date
DE102018120845A1 true DE102018120845A1 (de) 2019-02-28
DE102018120845B4 DE102018120845B4 (de) 2023-02-02

Family

ID=65321387

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018120845.6A Expired - Fee Related DE102018120845B4 (de) 2017-08-28 2018-08-27 Verfahren und Vorrichtung zum Überwachen eines autonomen Fahrzeugs

Country Status (3)

Country Link
US (1) US10558217B2 (de)
CN (1) CN109421738B (de)
DE (1) DE102018120845B4 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019214413A1 (de) * 2019-09-23 2021-03-25 Robert Bosch Gmbh Verfahren zum zumindest teilautomatisierten Führen eines Kraftfahrzeugs
CN113722566A (zh) * 2021-08-18 2021-11-30 南斗六星系统集成有限公司 一种自动驾驶车辆功能稳定性评定的方法

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6194520B1 (ja) * 2016-06-24 2017-09-13 三菱電機株式会社 物体認識装置、物体認識方法および自動運転システム
US10585440B1 (en) 2017-01-23 2020-03-10 Clearpath Robotics Inc. Systems and methods for using human-operated material-transport vehicles with fleet-management systems
US10713940B2 (en) 2017-10-31 2020-07-14 Waymo Llc Detecting and responding to traffic redirection for autonomous vehicles
US10401862B2 (en) * 2017-10-31 2019-09-03 Waymo Llc Semantic object clustering for autonomous vehicle decision making
CN111386213B (zh) * 2017-11-28 2023-06-09 株式会社小糸制作所 移动体用显示装置
WO2019144222A1 (en) * 2018-01-24 2019-08-01 Clearpath Robotics Inc. Systems and methods for maintaining vehicle state information
US11113971B2 (en) * 2018-06-12 2021-09-07 Baidu Usa Llc V2X communication-based vehicle lane system for autonomous vehicles
US10829091B2 (en) 2018-09-20 2020-11-10 Ford Global Technologies, Llc Vehicle sensor cleaning
US10836356B2 (en) * 2018-09-20 2020-11-17 Ford Global Technologies, Llc Sensor dirtiness detection
US10984260B2 (en) * 2019-05-23 2021-04-20 GM Global Technology Operations LLC Method and apparatus for controlling a vehicle including an autonomous control system
US10977503B2 (en) * 2019-08-15 2021-04-13 GM Global Technology Operations LLC Fault isolation for perception systems in autonomous/active safety vehicles
US11829128B2 (en) * 2019-10-23 2023-11-28 GM Global Technology Operations LLC Perception system diagnosis using predicted sensor data and perception results
US11436876B2 (en) * 2019-11-01 2022-09-06 GM Global Technology Operations LLC Systems and methods for diagnosing perception systems of vehicles based on temporal continuity of sensor data
US10981577B1 (en) 2019-12-19 2021-04-20 GM Global Technology Operations LLC Diagnosing perception system based on scene continuity
CN111278006B (zh) * 2020-01-21 2023-04-07 重庆长安汽车股份有限公司 一种基于v2x的感知信息的可靠性验证方法、装置、控制器及汽车
CN111983935B (zh) * 2020-08-19 2024-04-05 北京京东叁佰陆拾度电子商务有限公司 一种性能评测方法和装置
US20220144260A1 (en) * 2020-11-10 2022-05-12 Honda Motor Co., Ltd. System and method for completing risk object identification
CN113065691A (zh) * 2021-03-22 2021-07-02 中国联合网络通信集团有限公司 一种交通行为预测方法及系统
CN113525422B (zh) * 2021-08-23 2023-04-25 驭势(上海)汽车科技有限公司 一种自动驾驶系统和方法
CN114802284A (zh) * 2022-02-16 2022-07-29 武汉路特斯汽车有限公司 车辆感知性能评价方法及系统

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080161989A1 (en) * 1995-06-07 2008-07-03 Automotive Technologies International, Inc. Vehicle Diagnostic or Prognostic Message Transmission Systems and Methods
DE102010013943B4 (de) * 2010-04-06 2018-02-22 Audi Ag Verfahren und Vorrichtung für eine Funktionsprüfung einer Objekt-Erkennungseinrichtung eines Kraftwagens
US8775064B2 (en) * 2011-05-10 2014-07-08 GM Global Technology Operations LLC Sensor alignment process and tools for active safety vehicle applications
WO2014015390A1 (en) * 2012-07-27 2014-01-30 Adelaide Research & Innovation Pty Ltd A system, method, software application and data signal for determining movement
WO2014057309A1 (en) * 2012-10-10 2014-04-17 Freescale Semiconductor, Inc. Method and apparatus for determining a risk level in manually operated systems
CN103234763B (zh) * 2013-04-09 2015-04-15 北京理工大学 一种无人驾驶车辆定量评价系统及评价方法
DE102013213171A1 (de) * 2013-07-04 2015-01-08 Robert Bosch Gmbh Verfahren und Vorrichtung zum Betreiben eines Kraftfahrzeugs in einem automatisierten Fahrbetrieb
US9523984B1 (en) * 2013-07-12 2016-12-20 Google Inc. Methods and systems for determining instructions for pulling over an autonomous vehicle
US20160167699A1 (en) * 2013-07-17 2016-06-16 Hitachi Automotive Systems, Ltd. Vehicle control apparatus
DE102013220016A1 (de) * 2013-10-02 2015-04-02 Conti Temic Microelectronic Gmbh Verfahren und Vorrichtung zur Funktionsüberwachung eines Fahrerassistenzsystems
DE102014210485A1 (de) * 2014-06-03 2015-12-03 Robert Bosch Gmbh Verfahren und Vorrichtung zum Überwachen eines eine zumindest teilautomatisierte Fahrfunktion bereitstellendes System eines Fahrzeugs
EP3213251A1 (de) * 2014-10-27 2017-09-06 FTS Computertechnik GmbH Computervisionsüberwachung für ein computervisionssystem
JP6025268B2 (ja) * 2014-10-31 2016-11-16 富士重工業株式会社 車両の走行制御装置
US20160210383A1 (en) 2015-01-21 2016-07-21 Ford Global Technologies, Llc Virtual autonomous response testbed
US20160210382A1 (en) 2015-01-21 2016-07-21 Ford Global Technologies, Llc Autonomous driving refined in virtual environments
US20160210775A1 (en) 2015-01-21 2016-07-21 Ford Global Technologies, Llc Virtual sensor testbed
US9886801B2 (en) * 2015-02-04 2018-02-06 GM Global Technology Operations LLC Vehicle sensor compensation
US11370422B2 (en) * 2015-02-12 2022-06-28 Honda Research Institute Europe Gmbh Method and system in a vehicle for improving prediction results of an advantageous driver assistant system
CN105319540B (zh) * 2015-04-03 2019-01-22 上海通用汽车有限公司 一种车载倒车雷达自动测试方法及实现该方法的装置
SE541340C2 (en) * 2015-04-24 2019-07-16 Scania Cv Ab System and method for determination of the suitability for platooning with a subsequent vehicle
US9857181B2 (en) 2015-08-11 2018-01-02 Gm Global Technology Operations Llc. Methods and apparatus for evaluating operation of a vehicle onboard navigation system using lateral offset data
DE102015216494A1 (de) * 2015-08-28 2017-03-02 Robert Bosch Gmbh Verfahren und Vorrichtung zur Erkennung wenigstens einer Sensorfunktion wenigstens eines ersten Sensor wenigstens eines ersten Fahrzeugs
DE102015217771A1 (de) * 2015-09-17 2017-03-23 Conti Temic Microelectronic Gmbh Vorrichtung und Verfahren zum Überwachen einer Sensorfunktion für ein Kraftfahrzeug
US9630619B1 (en) * 2015-11-04 2017-04-25 Zoox, Inc. Robotic vehicle active safety systems and methods
KR101786237B1 (ko) * 2015-12-09 2017-10-17 현대자동차주식회사 운전자보조시스템용 센서의 고장진단 및 보정을 위한 장치 및 방법
US9645577B1 (en) * 2016-03-23 2017-05-09 nuTonomy Inc. Facilitating vehicle driving and self-driving
CN106407947B (zh) * 2016-09-29 2019-10-22 百度在线网络技术(北京)有限公司 用于无人驾驶车辆的目标物体识别方法和装置
US10311593B2 (en) * 2016-11-16 2019-06-04 International Business Machines Corporation Object instance identification using three-dimensional spatial configuration
US10228693B2 (en) 2017-01-13 2019-03-12 Ford Global Technologies, Llc Generating simulated sensor data for training and validation of detection models
US10399106B2 (en) * 2017-01-19 2019-09-03 Ford Global Technologies, Llc Camera and washer spray diagnostic
WO2018175772A1 (en) * 2017-03-23 2018-09-27 Harsco Technologies LLC Track feature detection using machine vision
US10521977B2 (en) 2017-03-27 2019-12-31 GM Global Technology Operations LLC Methods and systems for integrated vehicle sensor calibration and maintenance
US10296828B2 (en) * 2017-04-05 2019-05-21 Here Global B.V. Learning a similarity measure for vision-based localization on a high definition (HD) map
US10880293B2 (en) * 2017-08-25 2020-12-29 Ford Global Technologies, Llc Authentication of vehicle-to-vehicle communications

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019214413A1 (de) * 2019-09-23 2021-03-25 Robert Bosch Gmbh Verfahren zum zumindest teilautomatisierten Führen eines Kraftfahrzeugs
CN113722566A (zh) * 2021-08-18 2021-11-30 南斗六星系统集成有限公司 一种自动驾驶车辆功能稳定性评定的方法

Also Published As

Publication number Publication date
US10558217B2 (en) 2020-02-11
US20190064810A1 (en) 2019-02-28
CN109421738A (zh) 2019-03-05
DE102018120845B4 (de) 2023-02-02
CN109421738B (zh) 2022-04-12

Similar Documents

Publication Publication Date Title
DE102018120845B4 (de) Verfahren und Vorrichtung zum Überwachen eines autonomen Fahrzeugs
DE102018120841A1 (de) Verfahren und vorrichtung zum überwachen eines autonomen fahrzeugs
DE102018120786A1 (de) Verfahren und Vorrichtung zum Überwachen eines autonomen Fahrzeugs
DE102018120789A1 (de) Verfahren und Vorrichtung zur Überwachung eines autonomen Fahrzeugs
DE102018120788A1 (de) Steuerungsarchitektur zur Überwachung des Zustands eines autonomen Fahrzeugs
DE102014109936B4 (de) Interaktives automatisiertes Fahrsystem
DE102018120863A1 (de) Verfahren und Vorrichtung zum Überwachen eines Fahrzeugs
DE102018120785A1 (de) Verfahren und Vorrichtung zum Überwachen eines autonomen Fahrzeugs
DE102018115813A1 (de) Verfahren und systeme zum lokalisieren eines fahrzeugs
DE102017100763A1 (de) Fahrzeugautonomes steuersystem und verfahren
DE102020111682A1 (de) Systeme und verfahren zum implementieren einer autonomen fahrzeugreaktion auf ein sensorversagen
DE102018106527A1 (de) Elektronische Steuereinheiten, Fahrzeuge und Verfahren zum Umschalten einer Fahrzeugsteuerung aus einem autonomen Fahrmodus
DE102018131434A1 (de) Verfahren und vorrichtung zum überwachen einer fahrzeugbremse
DE102019133034A1 (de) Steuerung eines autonomen fahrzeugs basierend auf einem vorher erlernten fahrgast- und umgebungsbewussten fahrstilprofil
DE102018125207A1 (de) Fahrzeuginterne verkehrsassistenz
DE102018129063A1 (de) Systeme und verfahren zur freiraum-inferenz zum brechen von geclusterten objekten in fahrzeugwahrnehmungssystemen
DE102018120856A1 (de) Verfahren und Vorrichtung zur automatisierten Wartungsplanung eines autonomen Fahrzeugs
DE102019108610A1 (de) Verbesserung des fahrzeugverhaltens unter verwendung von informationen aus anderen fahrzeugleuchten
DE102021101426A1 (de) Erkennung von fahrzeugbetriebsbedingungen
DE112018005907T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren, programm und beweglicher körper
DE102017120845A1 (de) Verfahren und Systeme zur adaptiven On-Demand-Infrarot-Fahrspurerkennung
DE112017007205T5 (de) Modusumschaltsteuergerät, Modusumschaltsteuerungssystem, Modusumschaltsteuerverfahren und Programm
DE102018103473A1 (de) Wirksamer rollradius
DE102019115646A1 (de) System und verfahren zum modellieren von lenkeigenschaften
DE112021000146T5 (de) Systeme und verfahren zur erkennung von radschlupf bei fahrzeugen

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: MANITZ FINSTERWALD PATENT- UND RECHTSANWALTSPA, DE

R083 Amendment of/additions to inventor(s)
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee